31 resultados para Optimización de procesos productivos

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la siguiente comunicación se realiza una reflexión sobre el panorama actual de la construcción de vivienda de tipo social y la necesidad de un cambio a través de la transferencia e integración de metodología de producción industrial de otros sectores más evolucionados tecnológicamente que el sector de la construcción. El nuevo concepto de vivienda debe responder a unas características de funcionalidad, calidad y económicas ligadas a nuevos criterios de sostenibilidad, flexibilidad e industrialización. Se evalúan estos criterios para una posible adaptación a un nuevo concepto de vivienda teniendo en cuenta la adaptación de la producción a nuevos modelos de producción flexible desarrollados principalmente por industrias automovilísticas

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La actual competitividad empresarial hace necesaria la persecución de la mejora de la eficiencia en todos los procesos productivos. Esta mejora se consigue mediante la implementación de una gestión enfocada en los procesos. Este hecho ha derivado en la necesidad cada vez más acuciante de adoptar metodologías y herramientas que permitan a las organizaciones configurar sus sistemas de gestión. Los proyectos de edificación no escapan a esta metodología, es más, pueden ser unos de los más beneficiados en la implementación de la gestión por procesos. Por ello han surgido multitud de instituciones y asociaciones que la promueven en el ámbito de los proyectos de edificación. Gracias a la gestión por procesos se consigue acercar los objetivos del proyecto a las necesidades y requisitos de sus interesados, consiguiendo de este modo una mejora de la eficiencia. Estos requisitos y necesidades también afectan a las unidades de alicatados y solados, por lo que acercar los principios de la gestión por procesos a estas unidades nos puede ayudar a mejorar los resultados obtenidos en la obra. En cuanto a la gestión de proyectos es numerosa la bibliografía existente en el mundo anglosajón, donde las entidades encargadas de realizar publicaciones las revisan y adaptan continuamente a las necesidades y avances del mercado. Aunque en el ámbito internacional son numerosas las publicaciones que marcan los criterios necesarios para la gestión de proyectos por procesos, la bibliografía específica para la gestión de proyectos de edificación no es tan amplia, y en España es muy reducida y no posee el dinamismo que este tipo de publicaciones tiene en el ámbito internacional. En este trabajo se analizan las principales publicaciones internacionales en materia de gestión de proyectos y se comparan con las existentes en nuestro mercado, con la intención de analizar su situación y proponer los pasos a llevar a cabo para conseguir avanzar en el camino de la aplicación de los principios de la gestión de proyectos en el sector de la edificación. Como referencia, y para acotar el alcance del trabajo, se ha tomado como caso práctico la gestión de los revestimientos cerámicos (solados y alicatados), dentro del ámbito general de la gestión del proceso edificatorio.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Las proyecciones muestran un incremento en la demanda de energía primaria a nivel global para los próximos diez años. Para disminuir los efectos adversos sobre el medio ambiente del uso de combustibles fósiles, las políticas energéticas de España y la Unión Europea tienen como uno de sus objetivos principales incrementar el uso fuentes renovables en la producción energética para el año 2020.La biomasa es una de las principales fuentes renovables para la generación de energía primaria en España. Sin embargo su alto contenido en humedad y su baja densidad energética entre otras características de este material, suponen desventajas para su uso directo como combustible. Los procesos de conversión termoquímica son una alternativa para la obtención de productos sólidos, líquidos y gases de mejor potencial energético utilizando biomasa como materia prima. Esta tesis doctoral tiene como objetivo general el estudio y la optimización de procesos de conversión termoquímica de biomasa. Para cumplir con este objetivo el trabajo combina análisis experimentales y de simulación de distintas tecnologías de transformación termoquímica de biomasa. Antes de iniciar los estudios experimentales de los procesos de transformación termoquímica, se realiza una caracterización química, física y combustible de ocho de biomasas de naturaleza lignocelulósica y amilácea. Esta caracterización incluye el análisis del comportamiento termoquímico utilizando las técnicas de termogravimetría (TG-DTG), TG-FTir y pirólisis analítica (Py-GC/MS). Después de la caracterización se seleccionan tres tipos de biomasas (madera de pino, hueso de aceituna y hueso de aguacate) que son utilizadas como materia prima en el estudio experimental de procesos de gasificación, torrefacción y pirólisis en distintos sistemas de reacción de escala de laboratorio. Estos estudios se realizan para optimizar las condiciones de operación de cada uno de los procesos y caracterizar los productos obtenidos. El trabajo realizado incluye el rediseño y puesta en marcha de un sistema de gasificación de lecho fluidizado así como de un sistema de torrefacción y pirólisis en horno rotatorio. Los estudios experimentales incluyen un análisis de distintas condiciones de operación (temperatura, composición atmosférica, tiempo de residencia, condiciones fluidomecánicas, tamaño de partícula del combustible, condiciones de condensación) con el objetivo de determinar las condiciones óptimas de operación de cada uno de los procesos analizados respecto de las características químicas, físicas y combustibles de los productos. Para la optimización de las condiciones de operación del sistema de gasificación de lecho fluidizado se realiza un análisis complementario del comportamiento hidrodinámico utilizando la metodología de análisis computacional fluidodinámico o mecánica de fluidos computacional (CFD). Los resultados obtenidos permiten determinar las condiciones óptimas de operación del sistema de reacción de lecho fluidizado. Finalmente, la tesis incluye el análisis de una planta comercial de gasificación localizada en Júndiz (Álava, España), centrándose en la caracterización del material particulado eliminado de la corriente de gas generado, con el objetivo de determinar su proceso de formación, características y establecer posibles aplicaciones comerciales.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este trabajo se estudia la modelización y optimización de procesos industriales de separación mediante el empleo de mezclas de líquidos iónicos como disolventes. Los disolventes habitualmente empleados en procesos de absorción o extracción suelen ser componentes orgánicos muy volátiles y dañinos para la salud humana. Las innovadoras propiedades que presentan los líquidos iónicos, los convierten en alternativas adecuadas para solucionar estos problemas. La presión de vapor de estos compuestos es muy baja y apenas varía con la temperatura. Por tanto, estos compuestos apenas se evaporan incluso a temperaturas altas. Esto supone una gran ventaja en cuanto al empleo de estos compuestos como disolventes industriales ya que permite el reciclaje continuo del disolvente al final del proceso sin necesidad de introducir disolvente fresco debido a la evaporación del mismo. Además, al no evaporarse, estos compuestos no suponen un peligro para la salud humana por inhalación; al contrario que otros disolventes como el benceno. El único peligro para la salud que tienen estos compuestos es por tanto el de contacto directo o ingesta, aunque de hecho muchos Líquidos Iónicos son inocuos con lo cual no existe peligro para la salud ni siquiera a través de estas vías. Los procesos de separación estudiados en este trabajo, se rigen por la termodinámica de fases, concretamente el equilibrio líquido-vapor. Para la predicción de los equilibrios se ha optado por el empleo de modelos COSMO (COnductor-like Screening MOdel). Estos modelos tienen su origen en el empleo de la termodinámica de solvatación y en la mecánica cuántica. En el desarrollo de procesos y productos, químicos e ingenieros frecuentemente precisan de la realización de cálculos de predicción de equilibrios de fase. Previamente al desarrollo de los modelos COSMO, se usaban métodos de contribución de grupos como UNIFAC o modelos de coeficientes de actividad como NRTL.La desventaja de estos métodos, es que requieren parámetros de interacción binaria que únicamente pueden obtenerse mediante ajustes por regresión a partir de resultados experimentales. Debido a esto, estos métodos apenas tienen aplicabilidad para compuestos con grupos funcionales novedosos debido a que no se dispone de datos experimentales para llevar a cabo los ajustes por regresión correspondientes. Una alternativa a estos métodos, es el empleo de modelos de solvatación basados en la química cuántica para caracterizar las interacciones moleculares y tener en cuenta la no idealidad de la fase líquida. Los modelos COSMO, permiten la predicción de equilibrios sin la necesidad de ajustes por regresión a partir de resultados experimentales. Debido a la falta de resultados experimentales de equilibrios líquido-vapor de mezclas en las que se ven involucrados los líquidos iónicos, el empleo de modelos COSMO es una buena alternativa para la predicción de equilibrios de mezclas con este tipo de materiales. Los modelos COSMO emplean las distribuciones superficiales de carga polarizada (sigma profiles) de los compuestos involucrados en la mezcla estudiada para la predicción de los coeficientes de actividad de la misma, definiéndose el sigma profile de una molécula como la distribución de probabilidad de densidad de carga superficial de dicha molécula. Dos de estos modelos son COSMO-RS (Realistic Solvation) y COSMO-SAC (Segment Activity Coefficient). El modelo COSMO-RS fue la primera extensión de los modelos de solvatación basados en continuos dieléctricos a la termodinámica de fases líquidas mientras que el modelo COSMO-SAC es una variación de este modelo, tal y como se explicará posteriormente. Concretamente en este trabajo se ha empleado el modelo COSMO-SAC para el cálculo de los coeficientes de actividad de las mezclas estudiadas. Los sigma profiles de los líquidos iónicos se han obtenido mediante el empleo del software de química computacional Turbomole y el paquete químico-cuántico COSMOtherm. El software Turbomole permite optimizar la geometría de la molécula para hallar la configuración más estable mientras que el paquete COSMOtherm permite la obtención del perfil sigma del compuesto mediante el empleo de los datos proporcionados por Turbomole. Por otra parte, los sigma profiles del resto de componentes se han obtenido de la base de datos Virginia Tech-2005 Sigma Profile Database. Para la predicción del equilibrio a partir de los coeficientes de actividad se ha empleado la Ley de Raoult modificada. Se ha supuesto por tanto que la fracción de cada componente en el vapor es proporcional a la fracción del mismo componente en el líquido, dónde la constante de proporcionalidad es el coeficiente de actividad del componente en la mezcla multiplicado por la presión de vapor del componente y dividido por la presión del sistema. Las presiones de vapor de los componentes se han obtenido aplicando la Ley de Antoine. Esta ecuación describe la relación entre la temperatura y la presión de vapor y se deduce a partir de la ecuación de Clausius-Clapeyron. Todos estos datos se han empleado para la modelización de una separación flash usando el algoritmo de Rachford-Rice. El valor de este modelo reside en la deducción de una función que relaciona las constantes de equilibrio, composición total y fracción de vapor. Para llevar a cabo la implementación del modelado matemático descrito, se ha programado un código empleando el software MATLAB de análisis numérico. Para comprobar la fiabilidad del código programado, se compararon los resultados obtenidos en la predicción de equilibrios de mezclas mediante el código con los resultados obtenidos mediante el simulador ASPEN PLUS de procesos químicos. Debido a la falta de datos relativos a líquidos iónicos en la base de datos de ASPEN PLUS, se han introducido estos componentes como pseudocomponentes, de manera que se han introducido únicamente los datos necesarios de estos componentes para realizar las simulaciones. El modelo COSMO-SAC se encuentra implementado en ASPEN PLUS, de manera que introduciendo los sigma profiles, los volúmenes de la cavidad y las presiones de vapor de los líquidos iónicos, es posible predecir equilibrios líquido-vapor en los que se ven implicados este tipo de materiales. De esta manera pueden compararse los resultados obtenidos con ASPEN PLUS y como el código programado en MATLAB y comprobar la fiabilidad del mismo. El objetivo principal del presente Trabajo Fin de Máster es la optimización de mezclas multicomponente de líquidos iónicos para maximizar la eficiencia de procesos de separación y minimizar los costes de los mismos. La estructura de este problema es la de un problema de optimización no lineal con variables discretas y continuas, es decir, un problema de optimización MINLP (Mixed Integer Non-Linear Programming). Tal y como se verá posteriormente, el modelo matemático de este problema es no lineal. Por otra parte, las variables del mismo son tanto continuas como binarias. Las variables continuas se corresponden con las fracciones molares de los líquidos iónicos presentes en las mezclas y con el caudal de la mezcla de líquidos iónicos. Por otra parte, también se ha introducido un número de variables binarias igual al número de líquidos iónicos presentes en la mezcla. Cada una de estas variables multiplican a las fracciones molares de sus correspondientes líquidos iónicos, de manera que cuando dicha variable es igual a 1, el líquido se encuentra en la mezcla mientras que cuando dicha variable es igual a 0, el líquido iónico no se encuentra presente en dicha mezcla. El empleo de este tipo de variables obliga por tanto a emplear algoritmos para la resolución de problemas de optimización MINLP ya que si todas las variables fueran continuas, bastaría con el empleo de algoritmos para la resolución de problemas de optimización NLP (Non-Linear Programming). Se han probado por tanto diversos algoritmos presentes en el paquete OPTI Toolbox de MATLAB para comprobar cuál es el más adecuado para abordar este problema. Finalmente, una vez validado el código programado, se han optimizado diversas mezclas de líquidos iónicos para lograr la máxima recuperación de compuestos aromáticos en un proceso de absorción de mezclas orgánicas. También se ha usado este código para la minimización del coste correspondiente a la compra de los líquidos iónicos de la mezcla de disolventes empleada en la operación de absorción. En este caso ha sido necesaria la introducción de restricciones relativas a la recuperación de aromáticos en la fase líquida o a la pureza de la mezcla obtenida una vez separada la mezcla de líquidos iónicos. Se han modelizado los dos problemas descritos previamente (maximización de la recuperación de Benceno y minimización del coste de operación) empleando tanto únicamente variables continuas (correspondientes a las fracciones o cantidades molares de los líquidos iónicos) como variables continuas y binarias (correspondientes a cada uno de los líquidos iónicos implicados en las mezclas).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El sector de las Pequeñas y Medianas Industrias(PYMIS) constituye una proporción importante del tejido industrial del estado Bolívar. Sin embargo, en los últimos años se ha visto afectada su competitividad por la deficiencia en la capacidad de I+D+i, para la creación de nuevos productos que responda a las necesidades del mercado. El presente proyecto se planteó como objetivo evaluar, caracterizar y diseñar un modelo para articular el Sistema Regional de Innovación (SRI), para el desarrollo de la capacidad de la I+D+i, en el sector de las PYMIS del estado Bolívar, Venezuela. El estudio se realizó a través de una investigación no experimental, tipo evaluativo y aplicado. La recolección de la información se realizo mediante la aplicación de tres tipos de encuestas, destinadas a los siguientes actores que conforman el SRI: PYMIS, centros y laboratorios de I+D e instituciones financieras públicas y privadas. En cada una se consideró el rol y las relaciones con la institución gubernamental que define la política de ciencia y tecnología. Entre las conclusiones se tiene que la falta de articulación de los actores del SRI, afecta al aprovechamiento de los recursos, a la infraestructura existente para la I+D+i, y a la respuesta por parte de las PYMIS a las oportunidades del mercado.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La Asamblea General de la ONU, a solicitud del gobierno peruano, declara en el año 2008 el Año Internacional de la Papa, (AIP). Desde el año 2005, el gobierno peruano ha puesto en marcha estrategias en torno a la importancia de la papa, como la declaración del 30 de Mayo como el Día Nacional de la Papa. El año 2014 es declarado por la FAO, (Food and Agriculture Organization of the United Nations), Año Internacional de la Agricultura Familiar, con un enfoque compartido por esta Tesis Doctoral en el apoyo a la familia campesina peruana. El gobierno peruano utiliza las cadenas de valor como una estrategia de promoción de desarrollo sostenible, que ha permitido contribuir a la inclusión social y económica de productores pobres de zonas alto andinas, como las localizadas en la mancomunidad municipal del Yacus, (MMY), provincia de Jauja, departamento de Junín. Esta estrategia, en la que el mercado incorpora a los pequeños agricultores de las zonas altas de los Andes, (que disponen de recursos económicos muy bajos), en procesos productivos rentables, implica una serie de cambios a realizar, como la transformación de los patrones de producción tradicional hacia aquellos productos o servicios que tienen demanda en el mercado, o la variación de la mentalidad del agricultor pequeño hacia una concepción empresarial de su producción. (Fabián, 2013). Por otra parte, la sostenibilidad de las cadenas de valor depende del eslabón más débil, lo que obliga a conocer la situación de todos los eslabones para poder integrar y reforzar la cadena. Se requiere un sistema de transparencia adecuado que facilite el flujo de la información entre los distintos eslabones. (Briz et al., 2012). Además, el establecimiento de la cadena de valor debe hacerse con cuidado, ya que la eficacia y supervivencia de las empresas están cada vez más ligadas a la cadena de valor a la que pertenece y a la coordinación de la misma. (Briz, 2011). En esta situación, adquiere importancia el estudio de la cadena de valor de la papa nativa, para una vez establecidas sus características, poder determinar la viabilidad o no de una cadena de valor de este producto que repercuta parte de la riqueza generada en los pequeños agricultores alto andinos, e incluso, de su extensión hasta España. Existen estudios sobre las papas nativas, realizadas por diferentes universidades de distintos países, e incluso, de diferentes continentes. Sin embargo, la mayoría de los estudios se centran en la mejora de la producción de la papa nativa. La novedad de la investigación realizada en la presente Tesis Doctoral radica en el estudio de la viabilidad de la comercialización de la papa nativa, mediante el establecimiento de una cadena de valor que se inicie en la provincia de Jauja, Perú, y finalice tanto en los mercados peruanos de las regiones de Junín y Lima, como en España. El objetivo planteado en esta investigación es la mejora de las condiciones económicas y sociales de las comunidades agrícolas de la provincia de Jauja en el Perú, así como fomentar su desarrollo tecnológico e industrial, mediante el fomento de la cadena de valor de la papa nativa y sus derivados. Se establecen como objetivos específicos la caracterización de los eslabones de la cadena de valor de la papa nativa y sus derivados en la provincia de Jauja del Perú y en España, de manera que se determine el valor agregado en los mismos; el fortalecimiento de las organizaciones de productores de papas nativas para la comercialización de sus producciones y para el fomento de la cultura empresarial; y el desarrollo de una cadena de comercialización papas nativas y sus derivados con origen en la Provincia de Jauja, Perú, y que finalice en España, con la venta al consumidor español. Para alcanzar estos objetivos la metodología utilizada es la cadena de valor agroalimentaria, utilizando como herramientas de análisis el análisis DAFO de la cadena de valor de la papa nativa. Las fuentes de información primarias utilizadas proceden en parte del proyecto de cooperación de UPM, “Mejora de la cadena de valor de la patata andina como impulso al desarrollo rural. Caso de tres Comunidades Campesinas en la Provincia de Jauja del Perú”, en el que participó el doctorando, y en parte proceden de la batería de encuestas específicamente diseñadas para los diferentes eslabones de la cadena de valor de la papa nativa. Las fuentes de información secundarias proceden de artículos académicos publicados, de artículos publicados por revistas especializadas del sector y de informes realizados por diferentes instituciones gubernamentales, tanto españolas como peruanas. Las conclusiones de la investigación son las siguientes. La creación de la mancomunidad del Yacus ha beneficiado a los pequeños agricultores. Estos consiguen mejores condiciones de venta y mejores precios para sus productos, lo que repercute en la mejora de sus condiciones de vida. Estas mejoras en las condiciones de venta de los productos se deben a su pertenencia a una cadena de valor de papa nativa que está funcionando de forma eficaz. Las empresas consideradas para constituir la cadena de valor han mostrado interés por formar parte de ella: los campesinos para obtener mejores precios por sus productos y unas mejores condiciones de venta; los distribuidores para asegurarse una calidad determinada de unas variedades fijas de papa nativa; la industria transformadora por disponer de un suministro de producto adecuado al derivado de papa nativa correspondiente, (hojuelas, tunta, etc.); las empresas exportadoras para tener suministro garantizado de los productos que ellos requieren en los volúmenes adecuados. Es una situación ventajosa para todas las empresas participantes. A pesar de trabajar con un producto tradicional, la cadena de valor de la papa nativa presenta innovación en los productos comercializados, tanto en la papa nativa fresca como en sus derivados, en los formatos de los productos, en la red de distribución, en las instituciones peruanas y en el consumidor final. Se percibe una demanda de papa nativa y de sus productos derivados en aquellos países donde existen comunidades de latinoamericanos que han emigrado de sus países de origen. España está entre los países que han acogido a un importante número de personas de origen latinoamericano. A pesar de la fuerte crisis económica sufrida por España, que ha llevado consigo la vuelta a sus países de origen de parte de su comunidad latinoamericana, el tamaño de esta población sigue siendo importante. Esta población demanda productos originarios de sus propios países, y los consumirían de forma frecuente si los precios son adecuados a su capacidad de consumo. El precio de venta de la papa nativa y sus derivados en España es de gran importancia. La importación de estos productos desde Perú hace que este eleve a niveles que le resta competitividad, en especial en la papa fresca. Se aconseja la búsqueda de empresas que puedan adaptar la producción de la papa fresca de forma local, y mantener para los derivados la exportación directa a España. Las preferencias de los consumidores peruanos y españoles en cuanto a formatos y marcas se refieren no son coincidentes. De las encuestas realizadas, se concluye que no puede seguirse la misma estrategia de marketing en ambos países, debiéndose diferenciar los formatos de los paquetes de la papa nativa y de sus derivados en España y en Perú, para así lograr llegar a los consumidores potenciales de ambos países. ABSTRACT At the request of the Peruvian government, the UN General Assembly declared the International Year of the Potato in 2008. Since 2005, the Peruvian government has implemented strategies around the importance of the potato, as the declaration of the 30th of May as the National Day of the Potato. FAO (Food and Agriculture Organization of the United Nations) has declared 2014 as the International Year of Family Farming, with an approach shared by this Ph.D. dissertation about the Peruvian peasant family. The Peruvian government uses value chains as a strategy to promote sustainable development, which has allowed to contribute to the social and economic inclusion of poor farmers in the high Andean regions as those located in the municipal commonwealth of Yacus (MMY) province of Jauja, department of Junín. This strategy, which incorporates small farmers in the high Andean regions, (who have very low income), to the market with profitable production processes, implies a number of changes that should take place, such as changing patterns of traditional production to those products or services that are in demand in the market, or changes in the mentality of the small farmer into a concept of production business. (Fabián, 2013). Moreover, the sustainability of value chains depends on the weakest link, which demands a knowledge of the status of all the links, in order to integrate and strengthen the chain. It is required an adequate transparency to facilitate the flow of information between the various actors. (Briz et al., 2012). Furthermore, the establishment of the value chain should be done carefully, since the effectiveness and the survival of the businesses are increasingly linked to the value chain where the firm is included and to its coordination. (Briz, 2011). In this situation, it becomes important to study the value chain of the native potato, once we establish its features, to be able to determine the feasibility or not of a value chain of this product, which has an impact of the generated wealth in small farms of the high Andean regions, and even the extension of this value chain to Spain. There are studies on native potatoes, made by different universities in several countries and even in more than one continent. However, most studies focus on improving the production of native potato. The originality of the research conducted in this Ph.D. dissertation is the study of the feasibility of commercialization of native potato, by the creation of a value chain that starts in the province of Jauja, Perú, and ends both in Peruvian markets in the region of Lima, and in Spain. The main goal of this research is to improve the economic and social conditions of farming communities in the province of Jauja in Perú, while promoting its technological and industrial development, by the establishment of a value chain of the native potato and derivatives. The specific objectives of the research are the characterization of the links in the value chain of the native potato and its derivatives in the province of Jauja, (Perú) and in Spain, in order to determine the added value; the strengthening of organizations of native potato producers, to commercialize their products and the promotion of enterprise culture; and the development of a chain to market native potato and its derivatives, with its origin in the province of Jauja, (Perú), and its end in Spain, with the sale to the Spanish consumer. In order to achieve these objectives, the used methodology is the agrifood value chain, using as a tool to analysis it the SWOT analysis of the value chain of the native potato. The primary sources of information used in the research come partly from UPM cooperation project, "Improving the value chain of Andean potato as a boost to rural development. Case Three Rural Communities in the Province of Jauja, (Perú)", in which the Ph.D. student was involved, and partly from the surveys, which were specifically designed for the different links of the value chain of the native potato. The secondary sources of information come from academic articles, from articles published by magazines of the industry, and from reports of several government institutions, both Spanish and Peruvian. The conclusions of the research are as follows. The creation of the commonwealth of Yacus has benefited small farmers. They get better sales conditions and better prices for their products, which results in the improvement of their living conditions. These improvements are due to a value chain of native potato which is working effectively. All the firms invited to constitute the value chain have shown interest in being part of it: the farmers to get better prices for their products and better sale conditions; the distributors to ensure a certain quality of fixed varieties of native potato, the processing industry in order to have an adequate supply of product to the corresponding derivative of native potato (chips, “tunta”, etc.); exporting firms to have a guaranteed supply of the products that they require with the right volumes. It's a win-win situation for all participating companies. Despite being a traditional product, the value chain of the native potato presents innovation in marketed products, (both fresh native potato and its derivatives), in the formats of products, in the distribution network, in Peruvian institutions and in relation with the consumer. There is a perceived demand of native potato and its products in countries where communities of Latin Americans have settled down. Spain is among the countries that have received a significant number of people from Latin America. Despite the strong economic crisis suffered by Spain, which has lead to a return to their home countries of part of the Latin American community, the size of this population is still considerable. This population demands products from their own countries, and they frequently consume them if the prices are suitable to their standard of living. The selling price of the native potato and its derivatives in Spain is of great importance. The import of these products from Perú makes the prices rise to levels that reduce competitiveness, especially in fresh native potatoes. It is advised to look for companies which can adapt the fresh potato production in our country, and keep direct export to Spain for the derivatives products. The preferences of Peruvian and Spanish consumers in terms of formats and brands are not the same. The surveys concluded that the same marketing strategy cannot be followed in both countries. Packet formats of native potato and its derivatives should be differentiated in Spain and Perú, in order to reach the potential consumers of both countries.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En un mundo donde el cambio es constante y cada vez más vertiginoso, la innovación es el combustible que utilizan las empresas que permite su renovación constante y, como consecuencia, su supervivencia en el largo plazo. La innovación es sin dudas un elemento fundamental para determinar la capacidad de las empresas en crear valor a lo largo del tiempo, y por ello, las empresas suelen dedicar esfuerzos considerables y recursos de todo tipo para identificar nuevas alternativas de innovación que se adapten a su estrategia, cultura, objetivos y ambiciones corporativas. Una forma específica para llevar a cabo la innovación es la innovación abierta. Esta se entiende como la innovación que se realiza de manera conjunta con otras empresas o participantes del ecosistema. Cabe la aclaración que en este documento se toma la definición de ecosistema referida al conjunto de clientes, proveedores, competidores y otros participantes que interactúan en un mismo entorno donde existen posiciones de liderazgo que pueden cambiar a lo largo del tiempo (Moore 1996). El termino de innovación abierta fue acuñado por Henry Chesbrough hace algo mas de una década para referirse a esta forma particular de organizar la innovación corporativa. Como se observa en el presente trabajo la innovación abierta es un nuevo paradigma que ha capturado el interés académico y empresarial desde algo más de una década. Se verán varios casos de innovación abierta que se están llevando a cabo en diversos países y sectores de la economía. El objetivo principal de este trabajo de investigación es el de desarrollar y explicar un modelo de relación entre la innovación abierta y la creación de valor en las empresas. Para ello, y como objetivos secundarios, se ha investigado los elementos de un Programa de Innovación Abierta, los impulsores 1 de creación de valor, el proceso de creación de valor y, finalmente, la interacción entre estos tres elementos. Como producto final de la investigación se ha desarrollado un marco teórico general para establecer la conexión entre la innovación abierta y la creación de valor que facilita la explicación de la interacción entre ambos elementos. Se observa a partir de los casos de estudio que la innovación abierta puede abarcar todos los sectores de la economía, múltiples geografías y empresas de distintos tamaños (grandes empresas, pequeñas y medianas empresas, incluso empresas de reciente creación) cada una de ellas con distinta relevancia dentro del ecosistema en el que participan. Elementos de un Programa de Innovación Abierta La presente investigación comienza con la enumeración de los distintos elementos que se encuentran presentes en los Programas de Innovación Abierta. De esta manera, se describen los diversos elementos que se han identificado a través de la revisión de la literatura académica que se ha llevado a cabo. En función de una serie de características comunes, los distintos elementos se agrupan en cuatro niveles diferentes para lograr un mejor entendimiento de los Programas de Innovación Abierta. A continuación se detallan estos elementos § Organización del Programa. En primer lugar se menciona la existencia de una estructura organizativa capaz de cumplir una serie de objetivos establecidos previamente. Por su naturaleza de innovación abierta deberá existir cierto grado de interacción entre los distintos miembros que participen en el proceso de innovación. § Talento Interno. El talento interno asociado a los programas de innovación abierta juega un rol fundamental en la ejecución y éxito del programa. Bajo este nivel se asocian elementos como la cultura de innovación abierta y el liderazgo como mecanismo para entender uno de los elementos que explica el grado de adopción de innovación en una empresa. Estrechamente ligados al liderazgo se encuentran los comportamientos organizacionales como elementos diferenciadores para aumentar las posibilidades de creación de innovación abierta. § Infraestructura. En este nivel se agrupan los elementos relacionados con la infraestructura tecnológica necesaria para llevar a cabo el programa incluyendo los procesos productivos y las herramientas necesarias para la gestión cotidiana. § Instrumentos. Por último, se mencionan los instrumentos o vehículos que se utilizan en el entorno corporativo para implementar innovación abierta. Hay varios instrumentos disponibles como las incubadoras corporativas, los acuerdos de licenciamiento o las áreas de capital de riesgo corporativo. Para este último caso se hará una mención especial por el creciente y renovado interés que ha despertado tanto en el entorno académico como empresarial. Se ha identificado al capital de riesgo corporativo como un de los elementos diferenciales en el desarrollo de la estrategia de innovación abierta de las empresas ya que suele aportar credibilidad, capacidad y soporte tecnológico. Estos cuatro elementos, interactuando de manera conjunta y coordinada, tienen la capacidad de crear, potenciar e incluso desarrollar impulsores de creación de valor que impactan en la estrategia y organización de la empresa y partir de aquí en su desempeño financiero a lo largo del tiempo. Los Impulsores de Creación de Valor Luego de identificar, ordenar y describir los distintos elementos presentes en un Programa de Innovación Abierta se ha avanzado en la investigación con los impulsores de creación de valor. Estos pueden definirse como elementos que potencian o determinan la capacidad de crear valor dentro del entorno empresarial. Como se puede observar, se detallan estos impulsores como punto de interacción entre los elementos del programa y el proceso de creación de valor corporativo. A lo largo de la presente investigación se han identificado 6 impulsores de creación de valor presentes en un Programa de Innovación Abierta. § Nuevos Productos y Servicios. El impulsor de creación de valor más directo y evidente en un Programa de Innovación Abierta es la capacidad de crear nuevos productos y servicios dado que se relacionan directamente con el proceso de innovación de la empresa § Acceso a Mercados Adyacentes. El proceso de innovación también puede ser una fuente de valor al permitir que la empresa acceda a mercados cercanos a su negocio tradicional, es decir satisfaciendo nuevas necesidades de sus clientes existentes o de nuevos clientes en otro mercado. § Disponibilidad de Tecnologías. La disponibilidad de tecnologías es un impulsor en si mismo de la creación de valor. Estas pueden ser tanto complementarias como de apalancamiento de tecnologías ya existentes dentro de la empresa y que tengan la función de transformar parte de los componentes de la estrategia de la empresa. § Atracción del Talento Externo. La introducción de un Programa de Innovación Abierta en una empresa ofrece la oportunidad de interactuar con otras organizaciones del ecosistema y, por tanto, de atraer el talento externo. La movilidad del talento es una característica singular de la innovación abierta. § Participación en un Ecosistema Virtuoso. Se ha observado que las acciones realizadas en el entorno por cualquiera de los participantes también tendrán un claro impacto en la creación de valor para el resto de participantes por lo tanto la participación en un ecosistema virtuoso es un impulsor de creación de valor presente en la innovación abierta. § Tecnología “Dentro--‐Fuera”. Como último impulsor de valor es necesario comentar que la dirección que puede seguir la tecnología puede ser desde la empresa hacia el resto del ecosistema generando valor a partir de disponibilizar tecnologías que no son de utilidad interna para la empresa. Estos seis impulsores de creación de valor, presentes en los procesos de innovación corporativos, tienen la capacidad de influir en la estrategia y organización de la empresa aumentando su habilidad de crear valor. El Proceso de Creación de Valor en las Empresas Luego se ha investigado la práctica de la gestión basada en valor que sostiene la necesidad de alinear la estrategia corporativa y el diseño de la organización con el fin de obtener retornos financieros superiores al resto de los competidores de manera sostenida, y finalmente crear valor a lo largo del tiempo. Se describe como los impulsores de creación de valor influyen en la creación y fortalecimiento de las ventajas competitivas de la empresa impactando y alineando su estrategia y organización. Durante la investigación se ha identificado que las opciones reales pueden utilizarse como una herramienta para gestionar entornos de innovación abierta que, por definición, tienen altos niveles de incertidumbre. Las opciones reales aportan una capacidad para la toma de decisiones de forma modular y flexible que pueden aplicarse al entorno corporativo. Las opciones reales han sido particularmente diseñadas para entender, estructurar y gestionar entornos de múltiples incertidumbres y por ello tienen una amplia aplicación en los entornos de innovación. Se analizan los usos potenciales de las opciones reales como complemento a los distintos instrumentos identificados en los Programas de Innovación Abierta. La Interacción Entre los Programas de Innovación Abierta, los Impulsores de Creación de Valor y el Proceso de Creación de Valor A modo de conclusión del presente trabajo se puede mencionar que se ha desarrollado un marco general de creación de valor en el entorno de los Programas de Innovación Abierta. Este marco general incluye tres elementos fundamentales. En primer lugar describe los elementos que se encuentran presentes en los Programas de Innovación Abierta, en segundo lugar como estos programas colaboran en la creación de los seis impulsores de creación de valor que se han identificado y finalmente en tercer lugar como estos impulsores impactan sobre la estrategia y la organización de la empresa para dar lugar a la creación de valor de forma sostenida. A través de un Programa de Innovación Abierta, se pueden desarrollar los impulsores de valor para fortalecer la posición estratégica de la empresa y su capacidad de crear de valor. Es lo que denominamos el marco de referencia para la creación de valor en un Programa de Innovación Abierta. Se presentará la idea que los impulsores de creación de valor pueden colaborar en generar una estrategia óptima que permita alcanzar un desempeño financiero superior y lograr creación de valor de la empresa. En resumen, se ha desarrollado un modelo de relación que describe el proceso de creación de valor en la empresa a partir de los Programas de Innovación Abierta. Para ello, se han identificado los impulsores de creación de valor y se ha descripto la interacción entre los distintos elementos del modelo. ABSTRACT In a world of constant, accelerating change innovation is fuel for business. Year after year, innovation allows firms to renew and, therefore, advance their long--‐term survival. Undoubtedly, innovation is a key element for the firms’ ability to create value over time. Companies often devote considerable effort and diverse resources to identify innovation alternatives that could fit into their strategy, culture, corporate goals and ambitions. Open innovation refers to a specific approach to innovate by collaborating with other firms operating within the same business ecosystem.2 The term open innovation was pioneered by Henry Chesbrough more than a decade ago to refer to this particular mode of driving corporate innovation. Open innovation is a new paradigm that has attracted academic and business interest for over a decade. Several cases of open innovation from different countries and from different economic sectors are included and reviewed in this document. The main objective of this study is to explain and develop a relationship model between open innovation and value creation. To this end, and as secondary objectives, we have explored the elements of an Open Innovation Program, the drivers of value creation, the process of value creation and, finally, the interaction between these three elements. As a final product of the research we have developed a general theoretical framework for establishing the connection between open innovation and value creation that facilitates the explanation of the interaction between the two. From the case studies we see that open innovation can encompass all sectors of the economy, multiple geographies and varying businesses – large companies, SMEs, including (even) start--‐ups – each with a different relevance within the ecosystem in which they participate. Elements of an Open Innovation Program We begin by listing and describing below the items that can be found in an Open Innovation Program. Many of such items have been identified through the review of relevant academic literature. Furthermore, in order to achieve a better understanding of Open Innovation, we have classified those aspects into four different categories according to the features they share. § Program Organization. An organizational structure must exist with a degree of interaction between the different members involved in the innovation process. This structure must be able to meet a number of previously established objectives. § Internal Talent. Internal talent plays a key role in the implementation and success of any Open Innovation program. An open innovation culture and leadership skills are essential for adopting either radical or incremental innovation. In fact, leadership is closely linked to organizational behavior and it is essential to promote open innovation. § Infrastructure. This category groups the elements related to the technological infrastructure required to carry out the program, including production processes and daily management tools. § Instruments. Finally, we list the instruments or vehicles used in the corporate environment to implement open innovation. Several instruments are available, such as corporate incubators, licensing agreements or venture capital. There has been a growing and renewed interest in the latter, both in academia and business circles. The use of corporate venture capital to sustain the development of the open innovation strategy brings ability, credibility, and technological support to the process. The combination of elements from these four categories, interacting in a coordinated way, makes it possible to create, enhance and develop value creation drivers that may impact the company’s strategy and organization and affect its financial performance over time. The Drivers of Value Creation After identifying describing and categorizing the different elements present in an Open Innovation Program our research examines the drivers of value creation. These can be defined as elements that enhance or determine the ability to create value in the business environment. As can be seen, these drivers can act as interacting points between the elements of the program and the process of value creation. The study identifies six drivers of value creation that might be found in an Open Innovation Program. § New Products and Services. The more direct and obvious driver of value creation in any Open Innovation Program is the ability to create new products and services. This is directly related to the company’s innovation process. § Access to Adjacent Markets. The innovation process can also serve as a source of value by granting access to adjacent markets through satisfying new needs for existing customers or attracting new customers from other markets. § Availability of Technologies. The availability of technology is in itself a driver for value creation. New technologies can either be complementary and/or can leverage existing technologies within the firm. They can partly transform certain elements of the company’s strategy. § External Talent Strategy. Incorporating an Open Innovation Program offers the opportunity to interact with other organizations operating in the same ecosystem and can therefore attract external skilled resources. Talent mobility is a unique feature of open innovation. § Becoming Part of a Virtuous Circle. The actions carried out in the environment by any of its members will also have a clear impact on value creation for the other participants. Participation in a virtuous ecosystem is thus a driver for value creation in an open innovation strategy. § Inside--‐out Technology. Value creation may also evolve by allowing other firms in the ecosystem to incorporate internally developed under--‐utilized technologies into their own innovation processes. These six drivers that are present in the innovation process can influence the strategy and the organization of the company, increasing its ability to create value. The Value Creation Process Value--‐based management is the management approach that requires aligning the corporate strategy and the organizational design to create value and obtain sustained financial returns (at least, higher returns than its competitors). We describe how the drivers of value creation can enhance corporate advantages by aligning its strategy and organization. During this study, we were able to determine that real options can be used as managing tools in open innovation environments which, by definition, have high uncertainty levels. Real options provide capability for flexible and modular decision--‐making in the business environment. In particular, real options have been designed for uncertainty management and, therefore, they may be widely applied in innovation environments. We analyze potential uses of real options to supplement the various instruments identified in the Open Innovation programs. The Interaction Between Open Innovation Programs, Value Creation drivers and Value Creation Process As a result of this study, we have developed a general framework for value creation in Open Innovation Programs. This framework includes three key elements. We first described the elements that are present in Open Innovation Programs. Next, we showed how these programs can boost six drivers of value creation that have been identified. Finally, we analyzed how the drivers impact on the strategy and organization of the company in order to lead to the creation of sustainable value. Through an Open Innovation Program, value drivers can be developed to strengthen a company’s strategic position and its ability to create value. That is what we call the framework for value creation in the Open Innovation Program. Value drivers can collaborate in generating an optimal strategy that helps foster a superior financial performance and a sustained value creation process. In sum, we have developed a relationship model that describes the process of creating value in a firm with an Open Innovation Program. We have identified the drivers of value creation and described how the different elements of the model interact with each other.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La aplicación de la vigilancia tecnología se ha mostrado como una de las herramientas más importantes para ganar competitividad y mejorar las actividades de innovación de las empresas. La vigilancia se basa en captar las informaciones, normalmente patentes y publicaciones científicas, más relevantes para un determinado campo tecnológico y valorarlas para influir en la toma de decisiones. Las fases clásicas son: búsqueda, análisis y comunicación de la información. El trabajo se soportará tanto en herramientas comerciales como en otras que deberá desarrollar el estudiante, y tendrá como objetivo fundamental el desarrollar una metodología, basada en la vigilancia, para tomar decisiones sobre tecnologías y en este caso aplicadas a las tecnologías multimedia. El objetivo principal en la propuesta de una metodología genérica de vigilancia tecnológica (VT/IC) para la toma de decisiones con un ejemplo de aplicación en las tecnologías multimedia y que más adelante se explicitó en TV 3D. La necesidad de que el proceso de VT/IC se soporte en una metodología es imprescindible si queremos darle la importancia que debe tener en el ciclo productivo de cualquier tipo de organización y muy especialmente en una organización involucrada en investigación y desarrollo (I+D+i). Esta metodología posibilitará, entre otras cosas, que estos procesos que conforman la VT/IC puedan integrarse en una organización compartiendo los procesos productivos, de administración y de dirección de la organización. Permitirá una medición de su funcionamiento y las posibles modificaciones para obtener un mejor funcionamiento. Proveerá a los posibles elementos involucrados en la VT/IC de la documentación, procesos, herramientas, elementos de medición de un sistema definido, publicado, medido y analizado de trabajo. Finalmente a modo de ejemplo de un proceso de consulta VT/IC utilizaremos el criterio de búsqueda genérico 3D TV propuesto. Estructura del PFC: Para lograr estos objetivos el trabajo ha sido dividido en 6 etapas: 1.- Descripción del PFC: Una presentación del PFC y su desarrollo. 2.- Vigilancia tecnológica: Desarrollo del concepto de VT/IC, los efectos esperados, beneficios y riesgos de la VT/IC, concepto de inteligencia competitiva (IC), concepto aplicado de vigilancia tecnológica e inteligencia competitiva (VT/IC). 3.- Técnicas de análisis empresarial donde la VT/IC es útil: para empezar a entender como debe ser la VT/IC analizamos como una organización utiliza las distintas técnicas de análisis y que información aportan cada una de ellas, finalmente analizamos como la VT/IC ayuda a esas técnicas de análisis. 4.- Gestión de las fuentes de información: análisis de los tipos de fuentes de información y sus herramientas de búsqueda asociadas. 5.- Metodología propuesta de la VT/IC: desarrollo de la metodología de implementación y de funcionamiento de una unidad de VT/IC. 6.- Observatorio: a modo de ejemplo, “3d TV”. ABSTRACT. The application of surveillance technology has proven to be one of the most important to increase competitiveness and improve the innovation activities of enterprises tools. Surveillance is based on capturing the information, usually patents and scientific publications most relevant to a given technological field and assess them to influence decision making. The classical phases are: search, analysis and communication of information. The work will support both commercial and other tools to be developed by the student, and will have as main objective to develop a methodology, based on monitoring to make decisions about technologies and in this case applied to multimedia technologies. The main objective in the proposed generic methodology for technological awareness (VT / IC) for decision making with an example application in multimedia technologies and later made explicit 3D TV. The need for the process of VT / CI support methodology is essential if we give it the importance it should have in the production cycle of any organization and especially in an organization involved in research and development (R + D + i). This methodology will allow, among other things, that these processes that make up the VT / IC can be integrated into an organization sharing production processes, management and direction of the organization. It will allow a measurement of its performance and possible changes for better performance. It will provide the possible elements involved in the VT / IC documentation, processes, tools, measuring elements of a defined system, published, measured and analyzed work. Finally an example of a consultation process VT / IC use generic search criteria proposed 3D TV. Structure of the PFC: To achieve these objectives the work has been divided into 6 stages: 1. PFC Description: A presentation of the PFC and its development. 2. Technology Watch: Concept Development of VT / IC, expected effects, benefits and risks of VT / IC concept of competitive intelligence (CI) concept applied technology watch and competitive intelligence (VT / IC). 3. Business analysis techniques where VT / IC is useful: to begin to understand how it should be the VT / IC analyze how an organization uses different analysis techniques and information provide each finally analyze how the VT / IC helps these analysis techniques. 4. Management information sources: analysis of the types of information sources and their associated search tools. 5. proposed methodology VT / IC: methodology development and operational deployment of a unit of VT / IC. 6. Observatory: by way of example, "3D TV".

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La emisión de polvo por efecto del viento desde depósitos de residuos mineros o industriales y el paso de vehículos en vías no pavimentadas, es un problema que afecta las actividades productivas; el ambiente y la salud de las personas que permanecen en el área contaminada. En Chile, en los últimos años la sensibilidad social y las exigencias ambientales han aumentado, así como la oferta de diferentes supresores y tecnologías de aplicación. Se han revisado las causas que provocan emisión de polvo y las tecnologías disponibles en Chile para la supresión de polvo, además de las metodologías y normativa para evaluar el desempeño de los materiales tratados con diferentes supresores. En algunos casos no es posible comparar propiedades de desempeño, como durabilidad, dosis a aplicar y frecuencia de las aplicaciones, entre otros aspectos. Los procedimientos descritos en la norma NCh3266-2012 permiten evaluar la erosión eólica en depósitos de residuos, sitios eriazos y caminos no pavimentados, entre otros, junto con evaluar el desempeño de diferentes tipos de supresores de polvo a partir de datos objetivos comparables. Esto permite seleccionar el supresor más adecuado, mejorar la eficiencia de los tratamientos, optimizar los costos y mejorar los procesos productivos. Palabras clave: Erosión-eólica, supresor de polvo, residuos-mineros, caminos-no pavimentados. Dust emissions by wind effect from mining deposits or industrial waste and passing vehicles on unpaved roads, is a problem that affects the productive activities; the environment and the health of those who remain in the contaminated area. The social sensitivity and environmental requirements on this issue in Chile have increased, as well as offering different suppressors and application technologies. Have been reviewed the causes of dust emission and technologies available in Chile for dust suppression, plus methodologies and standards for assessing the performance of the treated materials with different suppressors. In some cases it is not possible to compare performance properties such as durability, application dose and frequency of applications, among others aspects. The procedures described in the NCh 3266-2012 standard allows the assessment of wind erosion in waste deposits, vacant lots and unpaved roads, among others, along with evaluating the performance of different types of dust suppressants from comparable objective data. This allows selecting the most suitable suppressor, improve efficiency of treatments, optimize costs and improve production processes. Keywords: Wind-erosion, dust-suppressor, mining-waste, unpavedroads

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los paisajes protagonistas de esta investigación han sido creados gracias a la actividad de las salinas, explotaciones “donde se beneficia la sal de las aguas del mar o de ciertos manantiales, cuando se ha evaporado el agua.” (RAE). Son lugares de características únicas, tanto por sus valores naturales y medioambientales, como por los valores culturales, patrimoniales, históricos, sociales e identitarios, “resultado de la acción e interacción de factores naturales y humanos en el territorio” (CEP, 2000). Existen salinas en muchos lugares del mundo, pero es en la Península Ibérica donde se encuentra la mayor concentración de estas explotaciones en toda Europa y, por consiguiente, de los singulares paisajes asociados y generados por ellas. Es también la única región europea donde existen salinas de interior que utilizan métodos de evaporación para la obtención de sal: las energías y circunstancias naturales aprovechadas en ellas, sol, viento, gravedad y humedad relativa, propician la evaporación del agua salada, una de las estrategias fundamentales para su funcionamiento. Esta circunstancia determina su posición geográfica en el territorio y su dependencia de los ciclos climáticos estacionales, del régimen hidrológico, la estructura geológica del subsuelo, la geomorfología y la acción humana para potenciar la eficiencia de los procesos productivos, creando para ello un extenso e interesante patrimonio natural y cultural en torno a ellas. Por tanto, son también paisajes culturales, resultado de un proceso artesanal de producción y comercialización de la sal, que se articula a través de la construcción de una serie de instalaciones preindustriales diseminadas y conectadas en puntos estratégicos del territorio costero e interior. La presente tesis aborda la grave situación a la que se enfrentan en la actualidad los paisajes ibéricos de la sal, concretamente los ubicados en la Comunidad Autónoma de Andalucía, que están sufriendo un ávido proceso de abandono y desaparición desde mediados del s. XX, con la consiguiente pérdida para la sociedad de este valioso patrimonio cultural y natural, que se ha ido construyendo durante siglos, prácticamente desde el inicio de la humanidad. De las diversas tipologías de salinas que existen, se han seleccionado las explotaciones, tanto marítimas como de interior, que utilizan o han utilizado en su origen técnicas de explotación artesanal basadas en la evaporación. El interés de esta acotación tipológica se ha basado en las relaciones de dependencia que estas explotaciones de sal establecen con el entorno físico y climático donde se ubican para poder existir y funcionar. El objetivo principal de esta investigación ha perseguido el establecimiento y definición de un marco territorial, global e integrador, para los paisajes culturales salineros andaluces, a través de la observación directa realizada durante el trabajo de campo, el análisis de textos, imágenes, documentos, gráficos, palabras y entrevistas abiertas. Lo anterior ha permitido identificar, clasificar, analizar y valorar sus principales características y su evolución en el tiempo, identificando las causas del deterioro y desaparición del patrimonio salinero, evaluando la efectividad de las iniciativas, públicas y/o privadas, y de las figuras de protección, así como analizar las relaciones que establecen con su entorno próximo, con los núcleos de población y habitantes a los que sirven, la red de carreteas y caminos que las conectan y los ríos y mares que las proveen de materia prima. Finalmente, se ha establecido una sistemática integral de análisis, con el fin de poder actuar, a partir del conocimiento, a favor de la gestión, salvaguarda y pervivencia de los excepcionales valores culturales y naturales, que definen el carácter e identidad de estos singulares paisajes. ----------------------ABSTRACT----------------- The landscapes of this research have been created by the activity of saltworks, sites “where salt from sea water or certain springs is obtained, when water evaporates.” (RAE). They are places with unique characteristics, because of their natural and environmental values, as well as their cultural, historic and social values, their heritage and identity, “the result of the action and interaction of natural and human factors on the territory” (European Landscape Convention, 2000). There are many saltworks in many places around the world, but it is in the Iberian Peninsula where we find the highest concentration of salt industries within Europe and, therefore, the particular landscapes associated and created by them. It is as well the only European region where we can find inland saltworks with evaporation methods to obtain salt: the energies and natural circumstances used in them are sun, wind, gravity and relative humidity, favouring salt water evaporation, one of the main strategies of their functioning. This circumstance determines their geographic position in the territory and its dependence on seasonal climatic cycles, hydrological regimes, geological subsoil structure, geomorphology and human action to strengthen productive processes efficiency, creating an extensive and interesting natural and cultural heritage around them. Therefore, they are also cultural landscapes, result of a traditional salt production process and marketing, organized through the construction of certain preindustrial buildings scattered and connected in strategic inland and seaside spots. This thesis deals with the plight today’s salt landscapes are facing, particularly those within the Andalucian Region, since the middle of the 20th century undergoing an avid process of abandonment and disappearance, meaning a great loss for society of a cultural and natural heritage constructed along centuries, almost since the beginning of mankind. Among the diverse typologies of saltworks, the selection made consists on those inland and seaside ones, which use or have originally used traditional production techniques based on evaporation. The interest in this particular saltwork typology is based on the dependency relationships these industries establish with the environment and climate where they are located, in order to be able to exist and function. The main goal of this research has pursued to establish and define a global and inclusive territorial framework for Andalucian cultural saltworks landscapes, through direct observation carried out during fieldwork, analysis of texts, images, documents, graphs, words and open interviews. All of it has allowed to identify, classify, analyze and evaluate their main characteristics and evolution over time, identifying the causes of deterioration and disappearance of the saltworks heritage, assessing the effectiveness of public and private initiatives, and protection projects, as well as analyzing the relationships with their surroundings, population centers and residents they serve, road networks connecting them and rivers and seas supplying the raw material. Finally, a comprehensive analysis systematic has been established, in order to be able to take action, with knowledge as starting point, for the management, preservation and survival of the unique cultural and natural values that define the character and identity of these singular landscapes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los paisajes protagonistas de esta investigación han sido creados gracias a la actividad de las salinas, explotaciones “donde se beneficia la sal de las aguas del mar o de ciertos manantiales, cuando se ha evaporado el agua.” (RAE). Son lugares de características únicas, tanto por sus valores naturales y medioambientales, como por los valores culturales, patrimoniales, históricos, sociales e identitarios, “resultado de la acción e interacción de factores naturales y humanos en el territorio” (CEP, 2000). Existen salinas en muchos lugares del mundo, pero es en la Península Ibérica donde se encuentra la mayor concentración de estas explotaciones en toda Europa y, por consiguiente, de los singulares paisajes asociados y generados por ellas. Es también la única región europea donde existen salinas de interior que utilizan métodos de evaporación para la obtención de sal: las energías y circunstancias naturales aprovechadas en ellas, sol, viento, gravedad y humedad relativa, propician la evaporación del agua salada, una de las estrategias fundamentales para su funcionamiento. Esta circunstancia determina su posición geográfica en el territorio y su dependencia de los ciclos climáticos estacionales, del régimen hidrológico, la estructura geológica del subsuelo, la geomorfología y la acción humana para potenciar la eficiencia de los procesos productivos, creando para ello un extenso e interesante patrimonio natural y cultural en torno a ellas. Por tanto, son también paisajes culturales, resultado de un proceso artesanal de producción y comercialización de la sal, que se articula a través de la construcción de una serie de instalaciones preindustriales diseminadas y conectadas en puntos estratégicos del territorio costero e interior. La presente tesis aborda la grave situación a la que se enfrentan en la actualidad los paisajes ibéricos de la sal, concretamente los ubicados en la Comunidad Autónoma de Andalucía, que están sufriendo un ávido proceso de abandono y desaparición desde mediados del s. XX, con la consiguiente pérdida para la sociedad de este valioso patrimonio cultural y natural, que se ha ido construyendo durante siglos, prácticamente desde el inicio de la humanidad. De las diversas tipologías de salinas que existen, se han seleccionado las explotaciones, tanto marítimas como de interior, que utilizan o han utilizado en su origen técnicas de explotación artesanal basadas en la evaporación. El interés de esta acotación tipológica se ha basado en las relaciones de dependencia que estas explotaciones de sal establecen con el entorno físico y climático donde se ubican para poder existir y funcionar. El objetivo principal de esta investigación ha perseguido el establecimiento y definición de un marco territorial, global e integrador, para los paisajes culturales salineros andaluces, a través de la observación directa realizada durante el trabajo de campo, el análisis de textos, imágenes, documentos, gráficos, palabras y entrevistas abiertas. Lo anterior ha permitido identificar, clasificar, analizar y valorar sus principales características y su evolución en el tiempo, identificando las causas del deterioro y desaparición del patrimonio salinero, evaluando la efectividad de las iniciativas, públicas y/o privadas, y de las figuras de protección, así como analizar las relaciones que establecen con su entorno próximo, con los núcleos de población y habitantes a los que sirven, la red de carreteas y caminos que las conectan y los ríos y mares que las proveen de materia prima. Finalmente, se ha establecido una sistemática integral de análisis, con el fin de poder actuar, a partir del conocimiento, a favor de la gestión, salvaguarda y pervivencia de los excepcionales valores culturales y naturales, que definen el carácter e identidad de estos singulares paisajes. ----------------------ABSTRACT----------------- The landscapes of this research have been created by the activity of saltworks, sites “where salt from sea water or certain springs is obtained, when water evaporates.” (RAE). They are places with unique characteristics, because of their natural and environmental values, as well as their cultural, historic and social values, their heritage and identity, “the result of the action and interaction of natural and human factors on the territory” (European Landscape Convention, 2000). There are many saltworks in many places around the world, but it is in the Iberian Peninsula where we find the highest concentration of salt industries within Europe and, therefore, the particular landscapes associated and created by them. It is as well the only European region where we can find inland saltworks with evaporation methods to obtain salt: the energies and natural circumstances used in them are sun, wind, gravity and relative humidity, favouring salt water evaporation, one of the main strategies of their functioning. This circumstance determines their geographic position in the territory and its dependence on seasonal climatic cycles, hydrological regimes, geological subsoil structure, geomorphology and human action to strengthen productive processes efficiency, creating an extensive and interesting natural and cultural heritage around them. Therefore, they are also cultural landscapes, result of a traditional salt production process and marketing, organized through the construction of certain preindustrial buildings scattered and connected in strategic inland and seaside spots. This thesis deals with the plight today’s salt landscapes are facing, particularly those within the Andalucian Region, since the middle of the 20th century undergoing an avid process of abandonment and disappearance, meaning a great loss for society of a cultural and natural heritage constructed along centuries, almost since the beginning of mankind. Among the diverse typologies of saltworks, the selection made consists on those inland and seaside ones, which use or have originally used traditional production techniques based on evaporation. The interest in this particular saltwork typology is based on the dependency relationships these industries establish with the environment and climate where they are located, in order to be able to exist and function. The main goal of this research has pursued to establish and define a global and inclusive territorial framework for Andalucian cultural saltworks landscapes, through direct observation carried out during fieldwork, analysis of texts, images, documents, graphs, words and open interviews. All of it has allowed to identify, classify, analyze and evaluate their main characteristics and evolution over time, identifying the causes of deterioration and disappearance of the saltworks heritage, assessing the effectiveness of public and private initiatives, and protection projects, as well as analyzing the relationships with their surroundings, population centers and residents they serve, road networks connecting them and rivers and seas supplying the raw material. Finally, a comprehensive analysis systematic has been established, in order to be able to take action, with knowledge as starting point, for the management, preservation and survival of the unique cultural and natural values that define the character and identity of these singular landscapes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El actual contexto de fabricación, con incrementos en los precios de la energía, una creciente preocupación medioambiental y cambios continuos en los comportamientos de los consumidores, fomenta que los responsables prioricen la fabricación respetuosa con el medioambiente. El paradigma del Internet de las Cosas (IoT) promete incrementar la visibilidad y la atención prestada al consumo de energía gracias tanto a sensores como a medidores inteligentes en los niveles de máquina y de línea de producción. En consecuencia es posible y sencillo obtener datos de consumo de energía en tiempo real proveniente de los procesos de fabricación, pero además es posible analizarlos para incrementar su importancia en la toma de decisiones. Esta tesis pretende investigar cómo utilizar la adopción del Internet de las Cosas en el nivel de planta de producción, en procesos discretos, para incrementar la capacidad de uso de la información proveniente tanto de la energía como de la eficiencia energética. Para alcanzar este objetivo general, la investigación se ha dividido en cuatro sub-objetivos y la misma se ha desarrollado a lo largo de cuatro fases principales (en adelante estudios). El primer estudio de esta tesis, que se apoya sobre una revisión bibliográfica comprehensiva y sobre las aportaciones de expertos, define prácticas de gestión de la producción que son energéticamente eficientes y que se apoyan de un modo preeminente en la tecnología IoT. Este primer estudio también detalla los beneficios esperables al adoptar estas prácticas de gestión. Además, propugna un marco de referencia para permitir la integración de los datos que sobre el consumo energético se obtienen en el marco de las plataformas y sistemas de información de la compañía. Esto se lleva a cabo con el objetivo último de remarcar cómo estos datos pueden ser utilizados para apalancar decisiones en los niveles de procesos tanto tácticos como operativos. Segundo, considerando los precios de la energía como variables en el mercado intradiario y la disponibilidad de información detallada sobre el estado de las máquinas desde el punto de vista de consumo energético, el segundo estudio propone un modelo matemático para minimizar los costes del consumo de energía para la programación de asignaciones de una única máquina que deba atender a varios procesos de producción. Este modelo permite la toma de decisiones en el nivel de máquina para determinar los instantes de lanzamiento de cada trabajo de producción, los tiempos muertos, cuándo la máquina debe ser puesta en un estado de apagada, el momento adecuado para rearrancar, y para pararse, etc. Así, este modelo habilita al responsable de producción de implementar el esquema de producción menos costoso para cada turno de producción. En el tercer estudio esta investigación proporciona una metodología para ayudar a los responsables a implementar IoT en el nivel de los sistemas productivos. Se incluye un análisis del estado en que se encuentran los sistemas de gestión de energía y de producción en la factoría, así como también se proporcionan recomendaciones sobre procedimientos para implementar IoT para capturar y analizar los datos de consumo. Esta metodología ha sido validada en un estudio piloto, donde algunos indicadores clave de rendimiento (KPIs) han sido empleados para determinar la eficiencia energética. En el cuarto estudio el objetivo es introducir una vía para obtener visibilidad y relevancia a diferentes niveles de la energía consumida en los procesos de producción. El método propuesto permite que las factorías con procesos de producción discretos puedan determinar la energía consumida, el CO2 emitido o el coste de la energía consumida ya sea en cualquiera de los niveles: operación, producto o la orden de fabricación completa, siempre considerando las diferentes fuentes de energía y las fluctuaciones en los precios de la misma. Los resultados muestran que decisiones y prácticas de gestión para conseguir sistemas de producción energéticamente eficientes son posibles en virtud del Internet de las Cosas. También, con los resultados de esta tesis los responsables de la gestión energética en las compañías pueden plantearse una aproximación a la utilización del IoT desde un punto de vista de la obtención de beneficios, abordando aquellas prácticas de gestión energética que se encuentran más próximas al nivel de madurez de la factoría, a sus objetivos, al tipo de producción que desarrolla, etc. Así mismo esta tesis muestra que es posible obtener reducciones significativas de coste simplemente evitando los períodos de pico diario en el precio de la misma. Además la tesis permite identificar cómo el nivel de monitorización del consumo energético (es decir al nivel de máquina), el intervalo temporal, y el nivel del análisis de los datos son factores determinantes a la hora de localizar oportunidades para mejorar la eficiencia energética. Adicionalmente, la integración de datos de consumo energético en tiempo real con datos de producción (cuando existen altos niveles de estandarización en los procesos productivos y sus datos) es esencial para permitir que las factorías detallen la energía efectivamente consumida, su coste y CO2 emitido durante la producción de un producto o componente. Esto permite obtener una valiosa información a los gestores en el nivel decisor de la factoría así como a los consumidores y reguladores. ABSTRACT In today‘s manufacturing scenario, rising energy prices, increasing ecological awareness, and changing consumer behaviors are driving decision makers to prioritize green manufacturing. The Internet of Things (IoT) paradigm promises to increase the visibility and awareness of energy consumption, thanks to smart sensors and smart meters at the machine and production line level. Consequently, real-time energy consumption data from the manufacturing processes can be easily collected and then analyzed, to improve energy-aware decision-making. This thesis aims to investigate how to utilize the adoption of the Internet of Things at shop floor level to increase energy–awareness and the energy efficiency of discrete production processes. In order to achieve the main research goal, the research is divided into four sub-objectives, and is accomplished during four main phases (i.e., studies). In the first study, by relying on a comprehensive literature review and on experts‘ insights, the thesis defines energy-efficient production management practices that are enhanced and enabled by IoT technology. The first study also explains the benefits that can be obtained by adopting such management practices. Furthermore, it presents a framework to support the integration of gathered energy data into a company‘s information technology tools and platforms, which is done with the ultimate goal of highlighting how operational and tactical decision-making processes could leverage such data in order to improve energy efficiency. Considering the variable energy prices in one day, along with the availability of detailed machine status energy data, the second study proposes a mathematical model to minimize energy consumption costs for single machine production scheduling during production processes. This model works by making decisions at the machine level to determine the launch times for job processing, idle time, when the machine must be shut down, ―turning on‖ time, and ―turning off‖ time. This model enables the operations manager to implement the least expensive production schedule during a production shift. In the third study, the research provides a methodology to help managers implement the IoT at the production system level; it includes an analysis of current energy management and production systems at the factory, and recommends procedures for implementing the IoT to collect and analyze energy data. The methodology has been validated by a pilot study, where energy KPIs have been used to evaluate energy efficiency. In the fourth study, the goal is to introduce a way to achieve multi-level awareness of the energy consumed during production processes. The proposed method enables discrete factories to specify energy consumption, CO2 emissions, and the cost of the energy consumed at operation, production and order levels, while considering energy sources and fluctuations in energy prices. The results show that energy-efficient production management practices and decisions can be enhanced and enabled by the IoT. With the outcomes of the thesis, energy managers can approach the IoT adoption in a benefit-driven way, by addressing energy management practices that are close to the maturity level of the factory, target, production type, etc. The thesis also shows that significant reductions in energy costs can be achieved by avoiding high-energy price periods in a day. Furthermore, the thesis determines the level of monitoring energy consumption (i.e., machine level), the interval time, and the level of energy data analysis, which are all important factors involved in finding opportunities to improve energy efficiency. Eventually, integrating real-time energy data with production data (when there are high levels of production process standardization data) is essential to enable factories to specify the amount and cost of energy consumed, as well as the CO2 emitted while producing a product, providing valuable information to decision makers at the factory level as well as to consumers and regulators.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se presenta la tesis doctoral, titulada ‘TRANS Arquitectura. Imaginación, Invención e individuación del objeto tecnico arquitectónico. Transferencia tecnológica desde la Industria del Transporte al Proyecto de Arquitectura [1900-1973]'’, que aborda la relación entre la Arquitectura y el Objeto Técnico durante la Modernidad.1 La temática de la tesis gravita en torno a la cultura técnica, la cultura material y la historia de la Tecnología del siglo XX. Hipótesis Se sostiene aquí la existencia de unas arquitecturas que se definen como Objetos Técnicos. Para demostrarlo se estudia si éstas comparten las mismas propiedades ontológicas de los objetos técnicos. Industria y Arquitectura La historia de la Arquitectura Moderna es la historia de la Industria Moderna y sus instalaciones industriales, sus productos y artefactos o sus procedimientos y procesos productivos. Fábricas, talleres, acerías, astilleros, minas, refinerías, laboratorios, automóviles, veleros, aviones, dirigibles, transbordadores, estaciones espaciales, electrodomésticos, ordenadores personales, teléfonos móviles, motores, baterías, turbinas, aparejos, cascos, chassis, carrocerías, fuselajes, composites, materiales sintéticos, la cadena de montaje, la fabricación modular, la cadena de suministros, la ingeniería de procesos, la obsolescencia programada… Todos estos objetos técnicos evolucionan constantemente gracias al inconformismo de la imaginación humana, y como intermediarios que son, cambian nuestra manera de relacionarnos con el mundo. La Arquitectura, al igual que otros objetos técnicos, media entre el hombre y el mundo. Con el objetivo de reducir el ámbito tan vasto de la investigación, éste se ha filtrado a partir de varios parámetros y cualidades de la Industria, estableciendo un marco temporal, vinculado con un determinado modo de hacer, basado en la ciencia. El inicio del desarrollo industrial basado en el conocimiento científico se da desde la Segunda Revolución Industrial, por consenso en el último tercio del siglo XIX. Este marco centra el foco de la tesis en el proceso de industrialización experimentado por la Arquitectura desde entonces, y durante aproximadamente un siglo, recorriendo la Modernidad durante los 75 primeros años del siglo XX. Durante este tiempo, los arquitectos han realizado transferencias de imágenes, técnicas, procesos y materiales desde la Industria, que ha servido como fuente de conocimiento para la Arquitectura, y ha evolucionado como disciplina. Para poder abordar más razonablemente un periodo tan amplio, se ha elegido el sector industrial del transporte, que históricamente ha sido, no sólo fuente de inspiración para los Arquitectos, sino también fuente de transferencia tecnológica para la Arquitectura. Conjuntos técnicos como los astilleros, fábricas de automóviles o hangares de aviones, individuos técnicos como barcos, coches o aviones, y elementos técnicos como las estructuras que les dan forma y soporte, son todos ellos objetos técnicos que comparten propiedades con las arquitecturas que aquí se presentan. La puesta en marcha de la cadena móvil de montaje en 1913, se toma instrumentalmente como primer foco temporal desde el que relatar la evolución de numerosos objetos técnicos en la Primera Era de la Máquina; un segundo foco se sitúa en 19582, año de la creación de la Agencia Espacial norteamericana (NASA), que sirve de referencia para situar la Segunda Era de la Máquina. La mayoría de los objetos técnicos arquitectónicos utilizados para probar la hipótesis planteada, gravitan en torno a estas fechas, con un rango de más menos 25 años, con una clara intención de sincronizar el tiempo de la acción y el tiempo del pensamiento. Arquitectura y objeto técnico Los objetos técnicos han estado siempre relacionados con la Arquitectura. En el pasado, el mismo técnico que proyectaba y supervisaba una estructura, se ocupaba de inventar los ingenios y máquinas para llevarlas a cabo. Los maestros de obra, eran verdaderos ‘agentes de transferencia tecnológica’ de la Industria y su conocimiento relacionaba técnicas de fabricación de diferentes objetos técnicos. Brunelleschi inventó varia grúas para construir la cúpula de Santa Maria dei Fiori (ca.1461), seguramente inspirado por la reedición del tratado de Vitruvio, De Architectura (15 A.C.), cuyo último capítulo estaba dedicado a las máquinas de la arquitectura clásica romana, y citaba a inventores como Archimedes. El arquitecto florentino fue el primero en patentar un invento en 1421: una embarcación anfibia que serviría para transportar mármol de Carrara por el río Arno, para su obra en Florencia. J. Paxton. Crystal Palace. London 1851. Viga-columna. Robert McCormick. Cosechadora 1831. 2ª patente, 1845. La Segunda Revolución Industrial nos dejó un primitivo ejemplo moderno de la relación entre la Arquitectura y el objeto técnico. El mayor edificio industrializado hasta la fecha, el Crystal Palace de Londres, obra de Joseph Paxton, fue montado en Londres con motivo de la Gran Exposición sobre la Industria Mundial de 1851, y siempre estará asociado a la cosechadora McCormick, merecedora del Gran Premio del Jurado. De ambos objetos técnicos, podrían destacarse características similares, como su origen industrial, y ser el complejo resultado de un ensamblaje simple de elementos técnicos. Desde la entonces, el desarrollo tecnológico ha experimentado una aceleración continuada, dando lugar a una creciente especialización y separación del conocimiento sobre las técnicas antes naturalmente unidas. Este proceso se ha dado a expensas del conocimiento integrador y en detrimento de la promiscuidad entre la Industria y la Arquitectura. Este es, sin lugar a dudas, un signo consustancial a nuestro tiempo, que provoca un natural interés de los arquitectos y otros tecnólogos, por las transferencias, trans e inter-disciplinareidades que tratan de re-establecer los canales de relación entre los diferentes campos del conocimiento. La emergencia de objetos técnicos como los vehículos modernos a principios del siglo XX (el automóvil, el trasatlántico, el dirigible o el aeroplano) está relacionada directamente con la Arquitectura de la Primera Era de la Máquina. La fascinación de los arquitectos modernos por aquellas nuevas estructuras habitables, se ha mantenido durante más de un siglo, con diferente intensidad y prestando atención a unos objetos técnicos u otros, oscilando entre el dominio del valor simbólico de los vehículos como objetosimágenes, durante el periodo heroico de la Primera Era de la Máquina, y la mirada más inquisitiva durante la Segunda, que perseguía un conocimiento más profundo de la organización de los mismos y del sistema técnico en el que estaban incluidos. La relación homóloga que existe entre arquitecturas y vehículos, por su condición de estructuras habitables, es algo de sobra conocido desde que Le Corbusier utilizara aquellas imágenes de barcos, coches y aviones para ilustrar su manifiesto Vers une architecture, de 1923. Los vehículos modernos han sido los medios con los que transmitir los conceptos que ansiaban transformar las propiedades tradicionales de la Arquitectura, relativas a su factura, su habitabilidad, su duración, su funcionalidad o su estética. Destaca particularmente el caso del automóvil en las décadas de los años 30 y 50, y los vehículos del programa espacial en las décadas de los 60 y 70. El conocimiento y la documentación previa de estos hechos, fueron un buen indicio para identificar y confirmar que el sector industrial del transporte, era un especialmente trascendente y fértil proveedor de casos de transferencia tecnológica para la Arquitectura. La tradición Moderna inaugurada por Le Corbusier en los años 20, ha sido mantenida y defendida por una multitud de arquitectos modernos como Albert Frey, Richard Neutra, Ralph Soriano, Charles Eames o Craig Ellwood, cuyo trabajo, animado por el legado de anteriores tecnólogos como Bucky Fuller o Jean Prouvé, fue fundamental y referencia obligada para la siguiente generación de arquitectos como Cedric Price, Archigram, Norman Foster, Richard Rogers, Renzo Piano, Jean Kaplicky o Richard Horden, entre otros. Todos ellos han contribuido a engrosar el imaginario del objeto técnico, aportando sus obras arquitectónicas. Estos arquitectos que aparecen repetidamente en el discurrir de la tesis, pertenecen a un mismo linaje, y son agrupados según una estructura ‘genealógica’, que se ha denominado ‘Estirpe Técnica’. Unidos por intereses comunes y similares enfoques o actitudes ante el proyecto de arquitectura, entendida como objeto Técnico, han operado mediante la práctica de la transferencia tecnológica, sin limitarse a las técnicas compositivas propias de la disciplina arquitectónica. Durante la investigación, se ha recopilado una selección de menciones explícitas -hechas por arquitectos- sobre otros objetos técnicos para referirse a la Arquitectura, mostrando las constantes y las variaciones de sus intereses a lo largo del siglo, lo que nos ha llevado a conclusiones como por ejemplo, que los conjuntos técnicos (fábricas de zepelines, aviones, automóviles o trasatlánticos) eran tomados por los arquitectos de la primera Modernidad, como un modelo imaginario, formal y compositivo, mientras que los de la Segunda Era de la Máquina los tomaban como modelo espacial y organizativo para la arquitectura. La mencionada estirpe de tecnólogos incluye líneas de descendencia conocidas, como: EiffelSuchovBehrens GropiusMiesLeCorbusierLodsProuve, en la Europa continental, o una rama británica como: LoudonPaxtonWilliamsStirlingGowan SmithsonsPriceArchigramFosterRogersPiano KaplickyHorden. También podemos encontrar conexiones intercontinentales como Fuller EamesRudolphFosterRogers, o ramificaciones menos previsibles como: LeRicolaisKahn PianoKaplicky, o LeCorbusierFreyLacaton Vassal… Seguramente muchos más merecerían incluirse en esta lista, y de hecho, la tesis asume la imposibilidad de incluirlo todo (por motivos prácticos) aunque contempla la posibilidad de ser ampliada en un futuro. Con lo aquí incluido, se pretende mostrar la continuidad en los enfoques, planteamientos y técnicas de proyectos aplicadas, de los que podemos deducir algunas conclusiones, como por ejemplo, que en los periodos inmediatamente posteriores a las dos Guerras Mundiales, aumentó la intensidad de aportaciones de nuevas imágenes de vehículos, al imaginario del objeto técnico utilizado por los arquitectos, a través de publicaciones y exposiciones. Hoy, cien años después de que Ford pusiera en marcha la cadena móvil de montaje, aún encontramos viva esta tradición en las palabras de un arquitecto, Richard Horden, cuyo trabajo porta consigo –como la información embebida en los elementos técnicos- toda una cultura técnica de una tradición moderna. Horden representa uno de los exponentes de la que he denominado estirpe de tecnólogos. Es por ello que he querido concluir la tesis con una entrevista, realizada en Mayo de 2015, en su estudio de Berkeley Square en Londres (ver Apéndices). Guías Para el desarrollo de la presente tesis, se ha tomado, como principal obra de referencia, otra tesis, titulada El modo de existencia de los objetos técnicos, leída y publicada en 1958 por el filósofo francés Gilbert Simondon [1924-89], dedicada a la ontología del objeto técnico. Esta obra enmarca el enfoque intelectual de la tesis, que entronca con la fenomenología, para movilizar una visión particular de la Arquitectura, a la que sirve como modelo de análisis ontológico para estudiar sus procesos de génesis, invención e individuación. Para el desarrollo de éstos, se ha utilizado como complemento bibliográfico, otra obra del mismo autor, titulada Imaginación e invención 1965-66. En cuanto a las fuentes historiográficas disciplinares, se ha elegido utilizar a Reyner P. Banham [1922-1988] y a Martin E. Pawley [1938-2008] como guías a través de la arquitectura del siglo XX. Sus crónicas sobre la Primera y Segunda Era de la Máquina3 y su obra crítica, han servido como índices desde los que reconstruir el imaginario del objeto técnico moderno, y del que aprovisionarse de proyectos y obras de Arquitectura como casos de estudio para la tesis. Estas obras han servido además como índices de otra bibliografía, que ha sido complementaria a la de éstos. Objetivos de la Tesis El principal objetivo de la tesis es demostrar la hipótesis: si una obra de arquitectura puede ser considerada un objeto técnico y bajo qué condiciones, construyendo un criterio que permita reconocer cuándo una obra de Arquitectura responde a la definición de objeto técnico. Otro objetivo es demostrar la importancia y potencia de la Transferencia tecnológica en el proceso evolutivo de la Arquitectura, y para ello se presentan ejemplos de una metodología de proyecto por ensamblaje, que Martin Pawley denominaba ‘Design by Assembly’. También es un objetivo el de reconstruir un Atlas del Imaginario del objeto técnico moderno, con el fin de conocer mejor las causas, razones y finalidades que llevaron a los arquitectos modernos a perseguir una arquitectura como objeto técnico. Este Atlas permite relacionar panópticamente los distintos objetos técnicos entre sí, revelando la verdadera importancia y trascendencia de aquéllos y las arquitecturas con las que se relacionan. En él, las arquitecturas vuelven a situarse en el contexto más extenso y complejo de la industria y la historia de la tecnología, al que siempre pertenecieron. De este modo, éstas son capaces de desvelar todo el conocimiento -en forma de información- que portan en su propio código ‘genético’, desplegando capítulos completos de cultura tecnológica, tan antigua como la Humanidad y en constante y creciente evolución. Estructura de la tesis Tras una Introducción en la que se presentan algunos de los conceptos principales que se instrumentalizan en la tesis sobre la ontología Simondoniana del objeto técnico y sobre la transferencia tecnológica aplicada al proyecto de Arquitectura, el texto principal de la tesis consta de tres partes: La primera se dedica a la Imaginación, una segunda parte a la Invención y una tercera a Individuación o evolución del objeto técnico. Se termina con una Discusión de la tesis y un apartado de Conclusiones. En la Introducción al objeto técnico, éste se define ontológicamente y se distinguen sus diferentes categorías (conjuntos técnicos, individuos técnicos y elementos técnicos). Se explica el proceso de génesis del objeto técnico y sus fases de imaginación, invención e individuación. También se presentan los conceptos de transducción, tecnicidad y sistema técnico, fundamentales para entender el concepto de transferencia tecnológica que se desarrollará después. La concretización, explica el modo particular de individuación y evolución de los objetos técnicos, un proceso por el que las diferentes partes de un objeto técnico, se integran y tienden hacia la propia convergencia. Aquí se comprueba la efectividad del concepto simondoniano de Transducción, como señal o información transmitida y transformada, y se relaciona con la Transferencia Tecnológica - un proceso sinergético, por el que un sector industrial se beneficia del desarrollo de otro sector- a la que se han referido explícitamente arquitectos e historiadores para explicar sus obras, durante la Segunda Era de la Máquina, y que es determinante para el desarrollo de la Industria. La transferencia tecnológica sería la transmisión del conjunto de conocimientos sobre la técnica, que incluyen su esfera fáctica, pero también la esfera sensible de la experiencia. En su aplicación a la arquitectura, las transferencias se han clasificado según tres tipos: Eidéticas, Tectónicas, Orgánicas. En la primera parte dedicada a la Imaginación del objeto técnico arquitectónico se realiza una reconstrucción ‘arqueológica’ –y parcial- del imaginario del objeto técnico moderno, con la intención de conocer mejor su génesis y la relación con otros objetos técnicos. Las fuentes de ese imaginario se buscan en las instalaciones de la Industria de principios de siglo XX, en particular en las fábricas de vehículos, con la finalidad de comprobar hasta qué punto, esos objetos técnicos fueron importantes para imaginar la Arquitectura moderna. La reconstrucción se continúa hasta la Segunda Era de la Máquina, cuando una nueva mirada más inquisitiva y precisa, se dirige a otras fábricas, vehículos y componentes, interesándose por sus cualidades materiales y organizativas. Transferencias Eidéticas, que operan desde un conocimiento intuitivo y son útiles para transmitir información sobre la esencia de un objeto técnico que sirve de fuente. Conceptos abstractos se transmiten por medio de las imágenes—objeto, para producir una transformación en su equivalente arquitectónico. Fruto de la investigación, se han detectado un grupo de conceptos que han sido objeto de transferencias tecnológicas de naturaleza eidética, provenientes del imaginario del objeto técnico moderno: FABRICADO, HABITABLE, FUNCIONAL, EFICIENTE, OBSOLESCENTE y BELLO. En la segunda parte dedicada a la Invención del objeto técnico arquitectónico, las transferencias también pueden ser Tectónicas, cuando lo que se transmite es una técnica constructiva o estructural aplicada mediante MATERIALES artificiales (como los metales, los composites como el ferrocemento, y el plywood, o las aleaciones como el aluminio) o mediante el ensamblaje de ESTRUCTURAS o partes componentes de otro objeto técnico, (como cascos, fuselajes, carrocerías o aparejos) y tiene como resultado la invención de un nuevo objeto técnico arquitectónico. En la tercera parte dedicada a la individuación, se abordan las transferencias ORGÁNICAS, lo que se transfiere es una técnica organizativa, aplicada a través de PROCEDIMIENTOS que definen la actividad del arquitecto como tecnólogo e inventor de objetos técnicos. Estos procedimientos tienen un efecto transformador en tres instituciones tradicionales para la Arquitectura: la Escuela, el Estudio y la Obra, y sus resultados se resumen en nuevos modelos de organización de la Educación de la Arquitectura, con la aparición de los Talleres de proyectos; nuevos modelos de organización del ejercicio de arquitecto: la Oficina técnica; nuevos modelos de organización del espacio, basados en la organización espacial de la Industria, que da lugar a patrones o Matrices espaciales; un nuevo modelo de organización del proyecto, que utiliza las herramientas gráficas de la industria y el ensamblaje como metodología; y un nuevo modelo de producción arquitectónica, basado en la Industrialización. Tras explicar los conceptos y la génesis del ensamblaje y el montaje, se presenta el proyecto por ensamblaje (Design by assembly) como un método que promueve la invención arquitectónica. Se demuestra utilizando algunos casos analizados en la tesis, en los que se ha realizado alguna transferencia conceptual, constructiva u organizativa. Tras analizar las arquitecturas estudiadas en la tesis, se ha utilizado el método genético propuesto por Simondon para comprender cada evolución particular, reconstruyendo las líneas genealógicas hasta sus ancestros, e identificando una serie de linajes genéticos, que corresponderían con los conjuntos técnicos estudiados en la tesis: el astillero, la fábrica de coches, y la fábrica de aeronaves: los Ancestros de la Modernidad. Los sistemas de organización espacial de estos conjuntos técnicos, están directamente relacionados con el objeto técnico que se produce en él. A partir de ellos se definen una serie de matrices operativas (MILL, SHOP, SHED), que sirven para hacer una taxonomía del objeto técnico arquitectónico. Esto se ejemplifica con algunos proyectos de Norman Foster, Richard Rogers, Renzo Piano, Nicholas Grimshaw, Jean Kaplicky y Richard Horden. Tesis: Comprobación de la hipótesis Simondon definía ontológicamente el Objeto técnico como aquello de lo que existe génesis y que desarrolla una tendencia hacia la solidaridad y unidad. Para que una Arquitectura pueda ser reconocida como un Objeto técnico, se deben dar una serie de condiciones, en las sucesivas fases que intervienen en su modo de existencia: Imaginación. Estas arquitecturas remiten a un imaginario protagonizado por imágenes-objeto de otros objetos técnicos (conjuntos técnicos, individuos técnicos y elementos técnicos). Esas imágenes-objeto vehiculizan una transferencia eidética de los objetos técnicos que simbolizan. Invención. Estas arquitecturas son el resultado de transferencias tectónicas, que se producen durante el proceso de proyecto, mediante el ensamblaje de materiales, componentes o procedimientos, utilizados en la industria para la producción de otros objetos técnicos. Individuación. Estas arquitecturas evolucionan y se individualizan por concretización, un proceso por el que los objetos técnicos se organizan para seguir su tendencia hacia la integración de sus partes, con el fin de alcanzar la convergencia de funciones en una única estructura. Esta integración tiende hacia la naturalización del objeto técnico, mediante la inclusión simbiótica de sus medios naturales asociados. En este caso, veremos cómo se ha producido transferencias orgánicas, o lo que es lo mismo, cómo los objetos técnicos –en el nivel de los conjuntos técnicos- se han tomado como modelo de organización por la arquitectura. Tras comprobar que de ellas existe una génesis, que evoluciona por las fases de imaginación e invención y concretización, se analiza su imaginario, su materialidad, sus estructuras y su organización, con el fin de detectar patrones y principios organizativos comunes a otros objetos técnicos. Interés de la tesis Desde el comienzo del nuevo siglo, diversos autores han demostrado un renovado interés por definir qué es el proyecto, qué lo constituye para qué sirve. Las aproximaciones al tema provienen de la filosofía analítica (Galle, 2008) o de la filosofía de la tecnología (Verbeek, 2005; Vermaas, 2009) y a menudo versan sobre la relación entre diseño y la cultura material (Dorschel 2003, Boradkar 2010 o Preston 2012). Es importante indicar el reciente y también creciente interés suscitado por la obra del filósofo francés, Gilbert Simondon [1924-1989], reconocida por su importante contribución a la filosofía de la técnica y la fenomenología, y por la influencia en el pensamiento de filósofos como Gilles Deleuze, autor presente en multitud de tesis doctorales e investigaciones teóricas llevadas a cabo en las principales escuelas de Arquitectura de todo el mundo desde los años 90 hasta el presente. La reedición y traducción de la obra de Simondon (ing. 1980, esp. 2008) ha recibido la atención de filósofos actuales como Paolo Virno, Bruno Latour o Bernard Stiegler, que siguen recurriendo a su estudio y análisis para avanzar en su pensamiento, estando por tanto presente en el debate contemporáneo sobre la técnica. Tras su reciente traducción al español, el pensamiento de Simondon ha despertado un gran interés en América Latina, como demuestra la organización de varios congresos y simposios, así como la proliferación de publicaciones en torno a su obra y pensamiento. Las futuras traducciones del resto de sus principales obras, asegurarán una introducción cada vez mayor en la comunidad académica. Se ha procurado presentar una mirada alternativa de la Historia de la Arquitectura Moderna, utilizando como guía a un cronista como Reyner Banham. La Era de la Máquina se ha cruzado con la Mecanología y el “vitalismo técnico” de Simondon, obteniendo como resultado una interpretación fresca, renovada y optimista de algunas de las más importantes obras de Arquitectura del siglo XX, que seguro contribuirán al desarrollo de la del siglo XXI, inmerso ya en el cambio de paradigma hacia la sostenibilidad y la ecología. ABSTRACT 'TRANS architecture. Imagination, invention and technical individuation of the architectural technical object. Technology transfer from the Transport Industry to Architectural Design [1900- 1973]' is a thesis dealing with the relationship between Architecture and the Technical Object during Modernity5. The theme of the thesis revolves around the technical culture, material culture and the history of twentieth-century technology. Hypothesis Held here is the existence of some architectures defined as technical objects. A study has been developed to prove if those architectures share the ontological properties of a technical object. Industry and Architecture The history of Modern Architecture is also the history of modern industry and its facilities, its products and devices, its procedures and production processes. Factories, workshops, steel mills, shipyards, mines, refineries, laboratories, cars, yachts, airplanes, airships, shuttles, space stations, home appliances, personal computers, mobile phones, motors, batteries, turbines, rigs, hulls, chassis, bodies, fuselages , composites and synthetic materials, the assembly line, modular manufacturing, the supply chain, process engineering, the planned obsolescence ... All these technical objects are constantly evolving thanks to the inconsistency of the human imagination and, as our intermediates, keep changing our way of relating and being in the world. Architecture, alike other technical objects, mediates between man and the World. In order to frame the vast field of the research, it has been filtered according to various parameters and qualities of Industry, establishing also a time frame which is related to a particular science-based way of making. The start of an industrial development, based on scientific knowledge is given from the Second Industrial Revolution -by consensus on the last third of the nineteenth century. This frame puts the focus of the thesis in the process of industrialization experienced by the Architecture of at least one century, and tours through Modernity during the first 75 years of the twenieth century. During this time, architects have made transfers of images, techniques, processes and materials from Industry, serving as a source of knowledge and thus allowing Architecture to evolve as a discipline. To reasonably address the enormous scope of the thesis, the industrial sector of transportation has ben chosen. It is not only a historical source of inspiration for architects, but also a traditional source of technology transfer for Modern Architecture. Technical sets such as shipyards, automobile factories or aircraft hangars, technical individuals as boats, cars or planes, and technical elements like the structures shaping and supporting them, are all technical objects which share properties with the architectures here presented. The launch of the moving assembly line in 1913, is instrumentally taken as a first time focus, from which to describe the evolution of many technical objects in the First Machine Age; a second focus could be found in 19586, year of the creation of the North American Space Agency (NASA), serving as a reference to the Second Machine Age. Most architectural technical objects used to test the hypothesis, gravitate around this second focus, in a range of plus or minus 25 years, with a clear intention to synchronize the time for action and time of thought. Architecture and Technical Object Technical objects have always been related to Architecture. In the past, the same technician who planned and oversaw a building structure, invented the devices and machines to carry them out. The foremen were the true 'technology transfer agents' from Industry. Their knowledge naturally related different manufacturing techniques to make diverse technical objects. Brunelleschi invented various cranes to build the dome of Santa Maria dei Fiori in Florence (ca.1461). Probably inspired by the reedition of Vitruvius’ treaty De Architectura (15 BC), whose last chapter was dedicated to the machines of classical Roman architecture and quoted inventors as Archimedes, the florentine architect was the first to patent an invention in 1421: an amphibious craft serving as a means of transportation for Carrara marble along the Arno river. At the daw of the Second Industrial Revolution, whose development was based on the scientific knowledge, we find a primitive modern example of the relationship between Architecture and a Technical Object: The Crystal Palace, built in London for the Great Exhibition of 1851 World Industry and designed by Joseph Paxton, was the largest to date industrialized building, and it will be always associated with the McCormick Reaper, worthy of the Grand Jury’s Prize. Similar characteristics could be emphasized of both technical objects, such as their industrial origin and for being be the complex result of a simple assembly of technical elements. Since then, technological development has experienced a continued acceleration, resulting in an increasing specialization and separation of knowledge about techniques which were naturally attached in the past. This process has happened at the expense of an integrative knowledge and against promiscuity between Industry and Architecture. This is, undoubtedly, an inherent sign of our time, which causes the natural and interest of architects and other technicians about transfers, trans-disciplinarity and inter-disciplinarity, as a reaction to reestablish channels of relationships between these different fields of knowledge. The emergence of technical objects as modern vehicles in the early twentieth century (the car, the Ocean liner, the airship or the airplane) is directly related to the Architecture of the First Machine Age. Modern architects’ fascination for those new ‘inhabitable’ structures has been maintained for over a century, with different intensity and paying attention to one and other technical objets, ranging from the domain of the symbolic value of the vehicles as objectsimages, during heroic period of the First Machine Age, to the more inquisitive glance characterizing the Second Machine Age, which sought a deeper understanding of the organization of such objects and the technical system to which they belonged. The periods immediately following both World Wars, showed a concentrated effort to bring new images of vehicles to the imaginary of architects, by means of publications and exhibitions. The homologous relationship between architectures and vehicles, in their capacity as living structures, is something well known since Le Corbusier used the images of cars, boats and airplanes to illustrate his manifesto, Towards an architecture in 1923. Modern vehicles have been the means by which to convey the concepts eager to transform the traditional attributes of Architecture: those relating to its manufacture, habitability, duration, functionality or aesthetics. The automobile stands out during the 30s and 50s, and the new vehicles of the Space Program satnd in the 60s and 70s. The prior knowledge and documentation of these events were a good indication to identify the industrial sector of Transportation as one of especial importance and as a fertile provider of technology transfer cases for Architecture. The Modern tradition, inaugurated by Le Corbusier in the 20s, has been maintained and defended by a host of modern architects like Albert Frey, Richard Neutra, Ralph Soriano, Charles Eames and Craig Ellwood, whose work - inspired by the legacy of previous technologists as Bucky Fuller or Jean Prouvé- was fundamental and a mandatory reference for the next generation of architects like Cedric Price, Archigram, Norman Foster, Richard Rogers, Renzo Piano, Jean and Richard Horden Kaplicky, among others. They have all contributed to increase the imaginary of the technical object, adding to it their architectural works. In the passage of the thesis, we repeatedly find a number of architects, who have been grouped according to a 'genealogical' structure, which has been called 'Technical Lineage'. Gathered by common interests and similar views or attitudes to the architectural design, understood as a technical object, they have operated through the practice of technology transfer, without limiting itself to specific compositional techniques of the architectural discipline. During the investigation, a selection of explicit references made by those architects, about other technical objects referring to their Architecture, has been compiled, showing constants and variations in their interests throughout the century, which has led to conclusions such as, having technicians sets (zeppelins factories, airships factories, car factories and shipyards) been taken by the architects of the first Modernity, as their main formal, compositional and imaginary models, while the Second Machine Age had taken them as a spatial and organizational model for their architecture. The above mentioned lineage of technologists includes weel-known ‘seed lines’ as: Eiffel- Suchov-Behrens, Gropius-Mies-LeCorbusier- Lods-Prouve, in continental Europe; British branches as Loudon-Paxton-Williams-Stirling- Gowan-Smithsons-Price-Archigram-Foster- Rogers-Piano-Kaplicky-Horden. And we could also find intercontinental connections as Fuller- Eames-Rudolph-Foster-Rogers, or other less predictable ramifications as LeRicolais-Kahn Piano-Kaplicky, or LeCorbusier-Frey-Lacaton & Vassal... Many more would surely deserve to be included in this list, and indeed, the thesis assumes the impossibility of including them all (for practical reasons) and even contemplates possible future extensions. The material included herein is to demonstrate the continuity in the approaches, statements and in the applied architectural design techniques, from which we can draw some conclusions. Today, one hundred years after Ford put up the moving assembly line, we still find this tradition alive in the words of the architect Richard Horden, whose work carries with it –as with the information embedded in every technical element- the whole techncial culture of a modern tradition. Horden is represented here as one of the exponents of what I have called the lineage of technologists. That is why I wanted to conclude the thesis with an interview to Richard Horden, held in May 2015 in his studio in London's Berkeley Square (see Appendices). Guides For the development of this thesis, another thesis, entitled: The mode of existence of technical objects, is taken as the main reference work. Read and published in 1958 by the French philosopher Gilbert Simondon [1924- 1989], it was dedicated to the ontology of the technical object. This work frames the intellectual approach of the thesis, which connects with phenomenology to mobilize a particular vision of Architecture. It is used as a model of ontological analysis to study its genesis, invention and evolutionary processes. To develop these, another work by the same author, titled Imagination and Invention (1965- 1966) has been used as a bibliographical complement. As for the disciplinary historical sources, Reyner P. Banham [1922-1988] and Martin E. Pawley [1938-2008] have been chosen as guides through the modern Architecture of the twentieth century. Their cronical reports on the First and Second Machine Age and their critical works have served as an index from which to reconstruct the imaginary of the modern technical object in the Machine Age7, and to stock up on projects and works of architecture, used as case studies for the thesis. These works have also been used as triggers for other literatures, which has been complementary to the former. Objectives of the Thesis The main objective of the thesis is to prove its hypothesis: if a work of architecture can be considered a technical object and under what conditions, building then a criterion for recognizing when a work of architecture meets the definition of a technical object. Another aim is to demonstrate the importance and power of Technology Transfer in the evolutionary process of Architecture, and to do it, some examples of a methodology for architectural design that Martin Pawley called 'Design by Assembly' are presented. It is also an objective to reconstruct an Atlas of the imaginary of the modern technical object, in order to better understand the causes, reasons and purposes that led modern architects to pursue architecture as a technical object. This Atlas allows to panoptically relate the various technical objects, revealing the true importance and significance of those and the architecture with whom they interact. Architectures are again at the largest and most complex industrial context and the history of technology, which always belonged. Thus, they are able to reveal all the knowledge-in the shape of information-carried in their own 'genetic' code, displaying full chapters of technological culture as old as mankind and constantly growing and evolving. Thesis: Proving the Hypothesis Simondon ontologically defined the technical object as ‘that of which genesis exists’ and that develops ‘a tendency towards solidarity and unity’. For an architecture to be recognized as a technical object, a number of conditions should be given, in the successive phases involved in their mode of existence: Imagination. These architectures refer to an imaginary featuring images-object other technical objects (technical sets, technical individuals and technical elements). These images are the means to an eidetic transfer of the technical objects which they symbolize. Invention. These architectures are the result of tectonic transfers, which occur during the architectural design process, by assembling materials, components or procedures used in industry for the production of other technical objects. Individuation. These architectures evolve and are individualized by ‘concretization’, a process leading to the full integration of its parts and aiming the full convergence of its functions into a single structure. This integration tends towards the naturalization of the technical object, by means of a symbiotic incorporation of their associated milieus. After checking if there is a genesis of them, which evolves through the phases of imagination and invention and concretization, their imaginary, materiality, structure and organization are analyzed in order to detect patterns and common organizational principles to other technical objects counterparts. Structure The main text of the thesis consists of three parts. Before there is an Introduction to the main concepts that are exploited in the thesis on ontology Simondonian technical object, and technology transfer applied to Architecture. Then a first part covers the Imaginary of the modern technical object, a second part is dedicated to the Invention and a third part to the individuation process The thesis ends with a section for the Discussion and the Conclusions. The Introduction to the technical object, this is ontologically defined and its different categories are distinguished. The process of genesis of the technical object and the phases of imagination, invention and indivuation are explained. Concepts as Transduction, Technicality and Technical system are presented for being fundamental to understand the concept of Technology Transfer that will take place later. The concretization is explained as the particular mode of individuation and evolution of technical objects, a process by which the different parts of a technical object, are integrated and begin a tendency towards a convergence in itself. The first part, dedicated to the Imagination of the architectural technical object presents a parcial "archaeological" reconstruction the imaginary of the modern technical object, intended to better understand its genesis and the relationship with other technical objects. The imaginary sources are searched in the premises of the Industry of the early twentieth century, and particularly in the factories of modern vehicles, in order to see, to what extent these technical objects were important to imagine modern architecture. The reconstruction is continued until the Second Machine Age, when a new, more inquisitive and precise gaze turns to other factories, other vehicles and other components and materials, inquiring now about their organizational qualities. The second part is devoted to the Invention of the architectural technical object. The effectiveness of the simondonian concept of Transduction is checked: a transmitted and transformed sign or information, which relates to Technology Transfer, a synergetic process by which an industrial sector benefits from the development of another sector, to which some architects and historians have explicitly referred to explain their works during Machine Age, and which is crucial for the development of the industry. Technology transfer would be the transmission of a set of information or knowledge about technique, including the factual sphere of technique, but also the sensitive sphere of experience. In their application to Architecture, these transfers have been classified according to three types: Eidetic, Tectonic and Organic. Eidetic Transfers operate from an intuitive knowledge and are useful for transmitting information about the essence of the technical object serving as a source. Abstract concepts are transmitted through the object-images to produce an equivalent transformation in Architecture. A group of concepts that have been the subject of technology transfers of eidetic nature, and have been originated in the imaginary of the modern technical object, have been detected as a result of the research: FABRICATED, INHABITABLE, FUNCTIONAL, EFFICIENT, OBSOLESCENT, and BEAUTIFUL. The transfers can also be Tectonic when, that which is transferred is a constructive or structural technique, applied through artificial MATERIALS such as metals, composites as the ferrocement, or plywood, or alloys such as aluminum; or by means of the assembly of STRUCTURES or parts of other technical objects such as hulls, fuselages, car bodies or rigs, resulting in the invention of a new architectural technical object. In the case of ORGANIC transfers, what is transferred is an organizational technique, applied by means of a set of PROCEDURES defining the activity of the architect as a technologist and inventor of technical objects. These procedures have a transformative effect on three traditional institutions for Architecture: the School, the Atelier and the Work, and the results are summarized in new models of organization of the Education of Architecture, with the onset of the Architectural Design Studios or workshops; new models of organization of the practice of architect: the technical office; and new models of space organization, based on the spatial organization of the industry, resulting in spatial patterns or spatial matrices; a new model of organization of the project, which uses graphical tools and industrail protocols as the assembly as a methodology; a new model of architectural production based on the industrialization. After explaining the concepts and the genesis of assembly and montage, Design by assembly is presented as a method that promotes architectural invention, and is shown using some case studies analyzed in the thesis, in which there has been made some conceptual, constructive or organizational transfer. After analyzing the architectures studied in the thesis, genetic method proposed by Simondon was used to understand every particular evolution, reconstructing their genealogical lines up to their ancestors, identifying a series of genetic lineages, which correspond to the technical sets studied in the thesis : the shipyard, the car factory, and aircraft factory. The real ancestors of Modernity. The spatial organization systems of these technical sets are directly related to the technical object that is fabricated within them. From that point, a number of operational matrices are defined (MILL, SHOP, SHED) and used to make a taxonomy of the architectural technical object. This is exemplified by some projects by architects as Norman Foster, Richard Rogers, Renzo Piano, Nicholas Grimshaw, Jean and Richard Horden Kaplicky. Interest of the thesis Since the beginning of the new century, several authors have shown a renewed interest in defining what a project is, how it is constituted and what it is for. The approaches to the subject are brought from analytic philosophy (Galle, 2008) or from the philosophy of technology (Verbeek, 2005; Vermaas, 2009) and they often speak about the relationship between design and material culture (Dorschel 2003, 2010 or Preston Boradkar 2012). It is also important to note the recent and growing interest in the work of French philosopher Gilbert Simondon [1924-1989], mainly known for its important contribution to the philosophy of technology and phenomenology of the technical object, and the influence on the thinking of contemporary philosophers as Paolo Virno, Bruno Latour or Gilles Deleuze, being the latter a author present in many doctoral theses and theoretical research conducted at major architecture schools around the world since the 90s to the present. The republication and translation of the work of Simondon (eng. 1980, spn. 2008) has received the attention from current philosophers such as Bernard Stiegler who continues to use its study and analysis to advance his thinking, thus being present in the contemporary debate about the technique. After its recent translation into Spanish, the thought of Simondon has aroused great interest in Latin America, as evidenced by the organization of various conferences and symposia, as well as the proliferation of publications about his work and thought8. Future translations of the rest of his major works, will ensure increased introduction in the academic community. Efforts have been made to present an alternative view of the History of Modern Architecture, using a reporter as Reyner P.Banham as a guide. The Machine Age intersects Simondon’s mechanology and his "technical vitalism", resulting in a fresh, renewed and optimistic interpretation of some of the most important works of Architecture of the twentieth century, which will surely contribute to the development of this century’s Architecture, already immersed in the paradigm shift towards sustainability and ecology.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Debido al carácter innovador de los objetivos científico-tecnológicos planteados al inicio de la presente Tesis doctoral, además de la primera recopilación bibliográfica, a lo largo del desarrollo de la misma se ha realizado una actualización bibliográfica continua centrada en los desarrollos relativos a la instrumentación, las aplicaciones y los procesos de interpretación de las técnicas de tomografía eléctrica. Durante el desarrollo del presente trabajo, se han realizado una serie de campañas diferenciadas, tanto por los ambientes geológicos y las condiciones antrópicas en los que se han efectuado los perfiles geoeléctricos, como por la profundidad y los objetivos de la prospección. En esas campañas se han obtenido, mediante el programa Res2DInv, las secciones tomográficas con la configuración de variables por defecto y se ha realizado una interpretación estructural de las mismas. Como parte central del desarrollo de esta investigación se han efectuado varios procesos de optimización: Comparación y optimización de los dispositivos empleados para la medición de perfiles de resistividad de cara a la obtención de secciones tomográficas que presenten la mayor resolución en distintos ambientes geológicos. Selección de los rangos de representación (lineales y logarítmicos) y de la gradación cromática que, pudiendo adoptarse de forma generalizada, permita la mejor interpretación gráfica para usuarios no avanzados. Diseño de criterios para la selección del factor de amortiguamiento, como parámetro crítico en los procesos de inversión tomográfica de perfiles geoeléctricos de superficie, de forma que los modelos resultantes alcancen la mejor relación entre fiabilidad y error respecto a los valores medidos. Paralelamente a los procesos anteriores se ha definido un índice de calidad de la inversión, que es directamente normalizado y que permite evaluar el grado en el que pueden considerarse fiables tanto los valores de resistividad obtenidos como su distribución espacial. El índice desarrollado (IRI) está basado en la influencia que tiene la resistividad inicial del modelo de inversión en los valores de cada una de las celdas de la malla de inversión. Tras un exhaustivo análisis estadístico se ha verificado que, a diferencia de otros índices utilizados hasta la fecha, dicho índice no está afectado ni por la profundidad de investigación y la resolución de los dispositivos, ni por la distribución de resistividades que presente el subsuelo. ABSTRACT Due to the innovative character of the scientific and technological objectives proposed at the beginning of this thesis, in addition to preparatory bibliographic reference, a constant bibliographic update on developments related to instrumentation, applications and interpretation processes for electric tomography has been performed all through the development of the work. Several measuring campaigns were performed during the development of the thesis. These campaigns, in which the geoelectric profiles were measured, varied in several aspects, both in the geological and anthropic conditions, and also in the depth and objectives of the prospection. Tomographic sections were obtained and interpretated by making use of the Res2DInv software configured with the default variables. As part of the core development in this research, several optimization processes have been done: Comparison and optimization of the devices used in the measurement of resistivity profiles. This optimization allows increasing the resolution of tomographic sections in different geological conditions. Selection of the best visual representation for the tomographic sections. This involves the selection of the range of values and type of scale (linear vs. logarithmic) as well as the chromatic graduation. This selection allows improving the interpretation of tomographic sections for the non-expert eye. Devising of criteria for the selection of the damping factor, as the critical parameter in processes of tomographic inversion of superficial geoelectrical profiles. The use of these criteria allows selecting the best factors to obtain the best ratio between reliability and error (in relation to the mean values) for the resulting model. In addition to the aforementioned processes, and as part of the work within this thesis, it has been defined a normalized quality index for inversion. This index allows evaluating the degree of reliability of the obtained resistivity values and spatial distribution. The developed index, termed IRI in the thesis, is based on the influence shown by the initial resistivity of the inversion model on the values of each of the cells of the inversion mesh. After an exhaustive statistical analysis it was verified that the IRI index is neither affected by the investigation depth, nor the resolution of the devices, nor the resistivity’s distribution of the sub soil. This independency is a unique characteristic of the IRI index, not present in other indexes developed and used till date.